python 坦克大战.rar
游戏有单人和双人两种模式,己方大本营被破或者己方坦克被歼灭则游戏失败,成功通过所有关卡则游戏胜利。另外,玩家可以通过射击特定的坦克使地图上随机出现一个道具,若己方坦克捡到该道具,则触发一个事件,例如坦克能力的增强。
JAVA实现科大讯飞离线语音识别.rar
Android 第三方SDK开发视频教程,给课程结合讯飞语音这个第三方SDK进行实战教学,实现在线语音合成,将文字信息转化为声音信息,给应用配上“嘴巴;语音听写,将连续语音识别为文字,给应用配上“耳朵”。
安卓-科大讯飞语音离线实现demo.rar
Android 第三方SDK开发视频教程,给课程结合讯飞语音这个第三方SDK进行实战教学,实现在线语音合成,将文字信息转化为声音信息,给应用配上“嘴巴;语音听写,将连续语音识别为文字,给应用配上“耳朵”。
百度TTS语音转文本demo.rar
百度文本转语音demo,其中包含了所有的所需的jar包,如:jtts.jar、espeak_lib.dll、JTTSApp.jar
elasticsearch-1.7.3.tar.gz
ES1.7版本安装工具及说明教程在以下链接中:https://www.jianshu.com/p/c596caf31688
Spark MLlib机器学习算法、源码及实战详解.rar
Spark MLlib机器学习算法的算法,教程视频,工具数据和数据都是经过验证正确的,下载下来即可直接使用
Android-SDK-Windows-版本.rar
很多人都有安卓sdk安装的疑问,现在我就将步骤详细的介绍,那就直接进入正题吧。
spark-2.2.0源码
Spark带注释源码
对于整个Spark源码分析系列,我将带有注释的Spark源码和分析的文件放在我的GitHub上Spark源码剖析欢迎大家fork和star
winutils-20190428
hadoop在windows上运行需要winutils支持和hadoop.dll等文件。直接解压后把文件丢到D:\hadoop-2.7.5\bin目录中去,将其中的hadoop.dll在c:/windows/System32下也丢一份
spark2.2.0源码------
spark2.2.0源码
我们很高兴地宣布Spark 2.2.3的可用性!请访问发行说明以了解有关新功能的信息,或立即下载该发行版。
JAVA面试300题(含答案)
本文分为十九个模块,分别是: Java 基础、容器、多线程、反射、对象拷贝、Java Web 、异常、网络、设计模式、Spring/Spring MVC、Spring Boot/Spring Cloud、Hibernate、MyBatis、RabbitMQ、Kafka、Zookeeper、MySQL、Redis、JVM
基于SSM框架的教务系统
主要包含学生、教师、管理员三端。 管理员主要包括:课程管理、学生管理、教师管理、账号密码重置等功能。 教师主要包括:我的课程、成绩管理等功能。 学生主要包括:查询所有课程、已选课程、已修课程、修改密码等功能。 前端采用jsp,数据库采用mysql,具体内容可以参考先参考
spark视频教程
Apache Spark 是专为大规模数据处理而设计的快速通用的计算引擎。Spark是UC Berkeley AMP lab (加州大学伯克利分校的AMP实验室)所开源的类Hadoop MapReduce的通用并行框架,Spark,拥有Hadoop MapReduce所具有的优点;但不同于MapReduce的是——Job中间输出结果可以保存在内存中,从而不再需要读写HDFS,因此Spark能更好地适用于数据挖掘与机器学习等需要迭代的MapReduce的算法。
spark 2.0.1 JavaAPI
spark 通过java操作的API详细说明,chm格式,可搜索自己想要的API,内部有详细的用法说明
spark2.1.0 JAVA API
spark 通过java操作的API详细说明,chm格式,可搜索自己想要的API,内部有详细的用法说明
Spark全面精讲
本套课程主要讲解目前大数据领域热门、火爆、有前景的技术—Spark,在本课程中,会从浅入深,基于大量案例实战,深度剖析和讲解Spark,并且会包含完整的从企业真实复杂业务需求中抽取出的案例作为实战,课程会涵盖Scala编程详解、Spark核心编程、Spark SQL和Spark Streaming、Spark内核以及源码剖析、性能优化、企业级案例实战等部分,完全从零起步,让大家可以一站式精通Spark企业级大数据开发,提升自己的职场竞争力,实现更好的升职或者跳槽,或者从j2ee等传统软件开发工程师哦转型为Spark大数据开发工程师,或是对于正在从事hadoop大数据开发的朋友可以扩宽自己的技术能力,提升自己的价值
spark全套视频教程
spark全面讲解的代码,从其中去掉解压密码,大家欢迎下载
Spark 2.0入门+项目实战
spark全面讲解的代码,从其中去掉解压密码,大家欢迎下载
JAR-加密资源清单详情包
Java 混淆器的作用是对编译好的代码进行混淆,使得反编译后的代码混乱难懂,真正起的作用只是增加了逆向工程的难度,最终结果也是治标不治本,对于一些掌握工具的人来说几乎还是透明的。另外由于 Java 程序中会有多重映射关系,因此大多数混淆工具的兼容性会很差。
Scala编程中文版(33章全)
spark-Scala编程中文版(33章全).pdf,scala基础入门学习资料
Storm分布式实时计算模式
与Hadoop主从架构一样,Storm也采用Master/Slave体系结构,分布式计算由Nimbus和Supervisor两类服务进程实现,Nimbus进程运行在集群的主节点,负责任务的指派和分发,Supervisor运行在集群的从节点,负责执行任务的具体部分。
winutils.exe 本地环境配置
解决hadoop在windows运行出现的bug,如果出现如下bug:“Could not locate executable null\bin\winutils.exe in the Hadoop binaries”,则下载该文件,放入hadoop的bin文件夹下,并设置环境变量HADOOP_HOME:F:\hadoop2.7.x即可。
learning spark 中文版
Spark,是一种通用的大数据计算框架,正如传统大数据技术Hadoop的MapReduce、Hive引擎,以及Storm流式实时计算引擎等。
Spark包含了大数据领域常见的各种计算框架:比如Spark Core用于离线计算,Spark SQL用于交互式查询,Spark Streaming用于实时流式计算,Spark MLlib用于机器学习,Spark GraphX用于图计算。
Spark主要用于大数据的计算,而Hadoop以后主要用于大数据的存储(比如HDFS、Hive、HBase等),以及资源调度(Yarn)。
Spark+Hadoop的组合,是未来大数据领域最热门的组合,也是最有前景的组合
---------------------
作者:大数据精英
来源:优快云
原文:https://blog.youkuaiyun.com/qq_42107047/article/details/80239094
版权声明:本文为博主原创文章,转载请附上博文链接!
syslog工具
在Unix类操作系统上,syslog广泛应用于系统日志。syslog日志消息既可以记录在本地文件中,也可以通过网络发送到接收syslog的服务器。接收syslog的服务器可以对多个设备的syslog消息进行统一的存储,或者解析其中的内容做相应的处理。常见的应用场景是网络管理工具、安全管理系统、日志审计系统。
完整的syslog日志中包含产生日志的程序模块(Facility)、严重性(Severity或 Level)、时间、主机名或IP、进程名、进程ID和正文。在Unix类操作系统上,能够按Facility和Severity的组合来决定什么样的日志消息是否需要记录,记录到什么地方,是否需要发送到一个接收syslog的服务器等。由于syslog简单而灵活的特性,syslog不再仅限于 Unix类主机的日志记录,任何需要记录和发送日志的场景,都可能会使用syslog。
长期以来,没有一个标准来规范syslog的格式,导致syslog的格式是非常随意的。最坏的情况下,根本就没有任何格式,导致程序不能对syslog 消息进行解析,只能将它看作是一个字符串。
---------------------
作者:SHUIPING_YANG
来源:优快云
原文:https://blog.youkuaiyun.com/zhezhebie/article/details/75222667
版权声明:本文为博主原创文章,转载请附上博文链接!
java解析wsdl示例-详细版
首先完整的内容应该是实现java解析wsdl文档获取方法与参数,然后使用soapui发送soap请求获取返回值并解析,而且基本可以解析主流webservice框架生成的wsdl
大数据ES数据存储,查询之IK中文分词器
对于ES IK分词插件在中文检索中非常常用,本人也使用了挺久的。但知识细节一直很碎片化,一直没有做详细的整理。过一段时间用的话,也是依然各种找资料,也因此会降低开发效率。所以在有空的时候好好整理下相关资料。也希望本文对使用 ElasticSearch 和 IK分词插件的开发者有所帮助。希望能少走点弯路。
本文包括前言、IK分词介绍、分词效果对比、自定义词典使用、索引设置和字段设置(Python 创建索引并导入数据)、查询测试(Python 查询)、结论等七个部分。
hadoop 读写文件流程详解
在hadoop中,有三大法宝——HDFS,MapReduce,Hbase,但是无论是MapReduce,Hbase还是hadoop中的其他组件如:Hive等他们要处理的数据还是处理完了的数据都是存储在HDFS中。可见HDFS可以说是hadoop存储的基础和核心,因此对HDFS的文件读写操作显得十分重要。
hadoop学习虚拟机集群搭建
Hadoop的特性优点
高可靠性。Hadoop按位存储和处理数据的能力值得人们信赖。
高扩展性。Hadoop是在可用的计算机集簇间分配数据并完成计算任务的,这些集簇可以方便地扩展到数以千计的节点中。
高效性。Hadoop能够在节点之间动态地移动数据,并保证各个节点的动态平衡,因此处理速度非常快。
高容错性。Hadoop能够自动保存数据的多个副本,并且能够自动将失败的任务重新分配。
低成本。与一体机、商用数据仓库以及QlikView、Yonghong Z-Suite等数据集市相比,hadoop是开源的,项目的软件成