keep的用法☂
keep的用法
1.keep +形容词
2.keep+sth/sb +形容词
3.keep +doing 一直做某事
4.keep …from doing …阻止做某事.
5.keep a pet 饲养一个宠物
6.How long may I keep this book keep指借.
0基础如何学习大数据
大数据(big data),指无法在一定时间范围内用常规软件工具进行捕捉、管理和处理的数据集合,是需要新处理模式才能具有更强的决策力、洞察发现力和流程优化能力的海量、高增长率和多样化的信息资产。随着互联网+时代的昌盛,大数据分析随之而产生,那如何学习大数据分析呢?有什么要求呢?
1、Java基础:
JAVA开发简介 基本语法 运算符 流程控制语句 数组 函数 面向对象 常用类库 异常 io系统 集合泛型 线程 网络编程 阶段测试
2、JavaWeb:
html+css; html5+css3; javascript; jquery; 数据库; JDBC; WEB服务器、开发工具-MyEclipse; HTTP协议; (数据库连接池)数据源; JavaWeb开发之Servlet、Servlet3.0; 请求与响应; JSP; MVC; 会话管理; 过滤和监听; 异步请求; 阶段测试
3、JavaEE高级+Linux课程+分布式计算:
Jspring框架、mybatis框架、nio、JVM、maven框架、LINUX、MYSQL分库分表、读写分离、JAVA搜索引擎、Redis、消息队列、分布式计算框架、项目实战
4、离线数据分析平台Hadoop:
Hadoop初步; Hadoop分布式文件系统HDFS; MapReduce; Hadoop HA; Hive; Flume;Sqoop; HBase; YARN; 项目实战
5、实时数据分析平台Storm:
python基础; Storm框架; Storm集群; 日志监控业务;Kafka; 项目实战
6、Scala语言与Spark:
Scala语言; Spark; 机器学习;spark与HIVE; 项目实战
对于数据挖掘工程师,Hadoop得熟悉,Python/Java/C++至少得熟悉一门,Shell得会用……总之编程语言绝对是数据挖掘工程师的最核心能力了。
大数据分析师最基础的学习,也是以最精炼的语言让我们得知大数据分析所需要的基础技能。
Apache Mahout如何使用
Mahout安装详细全过程1、jdk安装 22、SSH无密码验证配置 23、 Hadoop配置 34、Hadop使用 65、Maven安装 76、安装mahout 77、hadoop集群来执行聚类算法 88、其他 8――――――――――――――――――――1、jdk安装1.1、到官网下载相关的JDK下载地址:
、打开“终端”输入:sh jdk-6u24-linux-
i586.bin
1.3、设置JAVA_HOME环境系统变量输入:vi /etc/environment 在文件中添加:export JAVA_HOME=/root/jdk1.6.0_24 export JRE_Home=/root/jdk1.6.0_24/jre export CLASSPATH=$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib 同样,修改第二个文件。输入:vi /etc/profile 在umask 022之前添加以下语句:export JAVA_HOME=/root/jdk1.6.0_24 export JRE_Home=/root/jdk1.6.0_24/jre export CLASSPATH=$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib export PATH=$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$PATH:$HOME/bin 1.4、注销用户,检测JDK版本。输入:java -version 2、集群环境介绍集群包含三个节点:1 个 namenode,2 个 datanode,节点之间局域网连接,可以相互 ping 通。节点 IP 地址分布如下:Namenode: master@192.168.1.10Datanode1: slave1 @192.168.1.20Datanode2: slave2@192.168.1.21三台节点上均是CentOS系统,Hadoop在/root/hadoop/目录下。在/etc/hosts上添加主机名和相应的IP地址:192.168.1.10 master192.168.1.20 slave1192.168.1.21 slave23、SSH无密码验证配置2.1 Hadoop 需要使用SSH 协议,namenode 将使用SSH 协议启动 namenode和datanode 进程,伪分布式模式数据节点和名称节点均是本身,必须配置 SSH localhost无密码验证。用root用户登录,在家目录下执行如下命令:ssh-keygen -t rsa [root@master ~]# ssh-keygen -t rsaGenerating public/private rsa key
pair.Enter
file in which to save the key (/root/
.ssh/id_rsa):
& 按回车默认路径 &Created directory '/root/.ssh'. &创建/root/
.ssh
目录&Enter passphrase (empty for no passphrase):Enter same passphrase again: Your identification has been saved in /root/
.ssh/id_rsa.Your
public key has been saved in /root/
.ssh/id_rsa.pub.The
key fingerprint is:c6:7e:57:59:0a:2d:85:49:23:cc:c4:58:ff:db:5b:38 root@master通过以上命令将在/root/
.ssh/
目录下生成id_rsa私钥和
id_rsa.pub
公钥。进入/root/
.ssh
目录在namenode节点下做如下配置:[root@master .ssh]# cat
id_rsa.pub
> authorized_keys[root@master .ssh]# scp authorized_keys 192.168.1.20:/root/
.ssh/[root@master
.ssh]# scp authorized_keys 192.168.1.21:/root/
.ssh/
配置完毕,可通过ssh 本机IP 测试是否需要密码登录。2.2 和namenode无密码登录所有Datanode原理一样,把Datanode的公钥复制到Namenode的
.ssh
目录下。[root@slave1 .ssh]# scp authorized_keys1 192.168.1.10:/root /.ssh[root@ slave2.ssh]# scp authorized_keys2 192.168.1.10:/root /
.ssh
将刚传过来的authorized_keys1、2加入到authorized_keys[root@ master.ssh]# cat authorized_keys1 > authorized_keys[root@ master.ssh]# cat authorized_keys2 > authorized_keys这样也能在Datanode上关闭和启动Hadoop服务。4、 Hadoop配置下载 hadoop-
0.20.2.tar.gz
, 进行解压。tar zxvf hadoop-
0.20.2.tar.gz
修改/etc/profile,加入如下:# set hadoop pathexport HADOOP_HOME=/root/hadoopexport PATH=$HADOOP_HOME/bin:$PATH4.1、进入hadoop/conf, 配置Hadoop配置文件4.1.1 配置hadoop-
env.sh
文件添加 # set java environmentexport JAVA_HOME=/root/jdk1.6.0_24编辑后保存退出。4.1.2 配置core-site.xml# vi core-site.xml4.1.3 配置hdfs-site.xml# vi hdfs-site.xml4.1.4 配置mapred-site.xml# vi mapred-site.xml4.1.5 配置masters# vi masters192.168.1.104.1.6 配置slaves# vi slaves192.168.1.20192.168.1.214.2、 Hadoop启动4.2.1 进入 /root/hadoop/bin目录下,格式化namenode# ./hadoop namenode �Cformat4.2.2 启动hadoop所有进程在/root/hadoop/bin 目录下,执行start-
all.sh
命令启动完成后,可用jps命令查看hadoop进程是否启动完全。正常情况下应该有如下进程:10910 NameNode11431 Jps11176 SecondaryNameNode11053 DataNode11254 JobTracker11378 TaskTracker 我在搭建过程中,在此环节出现的问题最多,经常出现启动进程不完整的情况,要不是datanode无法正常启动,就是namenode或是TaskTracker启动异常。解决的如下:1)在Linux下关闭防火墙:使用service iptables stop命令;2)再次对namenode进行格式化:在/root/hadoop/bin 目录下执行hadoop namenode -format命令3)对服务器进行重启4)查看datanode或是namenode对应的日志文件,日♟志文件保存在/root/hadoop/logs目录下。5)再次在/bin目录下用start-
all.sh
命令启动所有进程,通过以上的几个方法应该能解决进程启动不完全的问题了。4.2.3 查看集群状态在 bin目录下执行:hadoop dfsadmin -report# hadoop dfsadmin �Creport4.3 在WEB页面下查看Hadoop工作情况打开IE浏览器输入部署Hadoop服务器的IP::50070:50030。5、Hadop使用一个测试例子wordcount:计算输入文本中词语数量的程序。WordCount在Hadoop主目录下的java程序包hadoop-0.20.2-
examples.jar
中,执行步骤如下:在/root/hadoop/bin/目录下进行如下操作:./hadoop fs -mkdir input(新建目录名称,可任意命名)mkdir /root/a/vi /root/a/
a.txt
写入hello world hello# hadoop fs -copyFromLocal /root/a/ input在/root/hadoop/bin下执行:# ./hadoop jar hadoop-0.20.2-
examples.jar
wordcount input output (提交作业,此处需注意input与output是一组任务,下次再执行wordcount程序,还要新建目录intput1与output1不能跟input与output重名)6、Maven安装6.1下载Maven解压tar vxzf apache-maven-3.0.2-
bin.tar.gzmv
apache-maven-3.0.2 /root/maven6.2 vi ~/
.bashrc
添加如下两行export M3_HOME=/root/mavenexport PATH=${M3_HOME}/bin:${PATH}6.3 先logout,之后再login查看maven版本,看是否安装成功mvn -version7、安装mahout安装方法见:
、hadoop集群来执行聚类算法8.1数据准备cd /root/hadoopwget
./hadoop fs -mkdir testdata./hadoop fs -put
synthetic_control.data
testdata./hadoop fs -lsr testdatabin/hadoop jar /root/mahout/mahout-examples-0.4-
job.jar
org.apache.mahout.clustering.syntheticcontrol.kmeans.Job8.3查看一下结果吧bin/mahout vectordump –seqFile /user/root/output/data/part-r-00000这个直接把结果显示在控制台上。9、hadoop集群来执行推荐算法分布式bin/hadoop jar /root/trunk/mahout-distribution-0.4/mahout-core-0.4-
job.jar
org.apache.mahout.cf.taste.hadoop.item.RecommenderJob
-Dmapred.map.tasks=3 -Dmapred.reduce.tasks=3 -Dmapred.input.dir=testdata/
100wan.txt
-Dmapred.output.dir=output2伪分布式bin/hadoop jar /root/trunk/mahout-distribution-0.4/mahout-core-0.4-
job.jar
org.apache.mahout.cf.taste.hadoop.pseudo.RecommenderJob
–recommenderClassName
org.apache.mahout.cf.taste.impl.recommender.slopeone.SlopeOneRecommender
-Dmapred.input.dir=testdata/
10wan.dat
-Dmapred.output.dir=output_w10wan10、其他离开安全模式:hadoop dfsadmin -safemode leave
大数据的框架主要学习和使用什么呢
消息队列很多:
1、RabbitMQ
RabbitMQ 2007年发布,是一个在AMQP(高级消息队列协议)基础上完成的,可复用的企业消息系统,是当前最主流的消息中间件之一。
2、ActiveMQ
ActiveMQ是由Apache出品,ActiveMQ 是一个完全支持JMS1.1和J2EE 1.4规范的 JMS Provider实现。它非常快速,支持多种语言的客户端和协议,而且可以非常容易的嵌入到企业的应用环境中,并有许多高级功能
3、RocketMQ
RocketMQ出自 阿里公司的开源产品,用 Java 语言实现,在设计时参考了 Kafka,并做出了自己的一些改进,消息可靠性上比 Kafka 更好。RocketMQ在阿里集团被广泛应用在订单,交易,充值,流计算,消息推送,日志流式处理等
4、Kafka
Apache Kafka是一个分布式消息发布订阅系统。它最初由LinkedIn公司基于独特的设计实现为一个分布式的提交日志系统( a distributed commit log),,之后成为Apache项目的一部分。Kafka系统快速、可扩展并且可持久化。它的分区特性,可复制和可容错都是其不错的特性。
如何优化MySQL千万级大表
概述
使用阿里云rds for MySQL数据库(就是MySQL5.6版本),有个用户上网记录表6个月的数据量近2000万,保留最近一年的数据量达到4000万,查询速度极慢,日常卡死,严重影响业务。
老系统,当时设计系统的人大概是大学没毕业,表设计和SQL语句写的不仅仅是垃圾,简直无法直视。原开发人员都已离职,到我来维护,这就是传说中的维护不了就跑路,然后我就是掉坑的那个!!!
方案概述
方案一:优化现有MySQL数据库。优点:不影响现有业务,源程序不需要修改代码,成本最低。缺点:有优化瓶颈,数据量过亿就玩完了。
方案二:升级数据库类型,换一种100%兼容MySQL的数据库。优点:不影响现有业务,源程序不需要修改代码,你几乎不需要做任何操作就能提升数据库性能,缺点:多花钱。
方案三:一步到位,大数据解决方案,更换newSQL/noSQL数据库。优点:没有数据容量瓶颈,缺点:需要修改源程序代码,影响业务,总成本最高。
优化现有MySQL数据库数据库设计
表字段避免null值出现,null值很难查询优化且占用额外的索引空间,推荐默认数字0代替null。
尽量使用INT而非BIGINT,如果非负则加上UNSIGNED(这样数值容量会扩大一倍),当然能使用TINYINT、SMALLINT、MEDIUM_INT更好。
尽量使用TIMESTAMP而非DATETIME。
单表不要有太多字段,建议在20以内。
用整型来存IP。
索引并不是越多越好,要根据查询有针对性的创建,考虑在WHERE和ORDER BY命令上涉及的列建立索引,可根据EXPLAIN来查看是否用了索引还是全表扫描。
应尽量避免在WHERE子句中对字段进行NULL值判断,否则将导致引擎放弃使用索引而进行全表扫描。
值分布很稀少的字段不适合建索引,例如"性别"这种只有两三个值的字段。
字符字段最好不要做主键。
不用外键,由程序保证约束。
尽量不用UNIQUE,由程序保证约束。
使用多列索引时注意顺序和查询条件保持一致,同时删除不必要的单列索引。
使用可存下数据的最小的数据类型,整型 < date,time < char,varchar < blob
使用简单的数据类型,整型比字符处理开销更小,因为字符串的比较更复杂。如,int类型存储时间类型,bigint类型转ip函数。
使用合理的字段属性长度,固定长度的表会更快。使用enum、char而不是varchar。
尽可能使用not null定义字段。
尽量少用text,非用不可最好分表。
查询频繁的列,在where,group by,order by,on从句中出现的列。
where条件中<,<=,=,>,>=,between,in,以及like 字符串+通配符(%)出现的列。
长度小的列,索引字段越小越好,因为数据库的存储单位是页,一页中能存下的数据越多越好。
离散度大(不同的值多)的列,放在联合索引前面。查看离散度,通过统计不同的列值来实现,count越大,离散程度越高。
SQL编写
使用limit对查询结果的记录进行限定。
避免select ,将需要查找的字段列出来。
使用连接(join)来代替子查询。
拆分大的delete或insert语句。
可通过开启慢查询日志来找出较慢的SQL。
不做列运算:SELECT id WHERE age + 1 = 10,任何对列的操作都将导致表扫描,它包括数据库教程函数、计算表达式等等,查询时要尽可能将操作移至等号右边。
SQL语句尽可能简单:一条SQL只能在一个cpu运算;大语句拆小语句,减少锁时间;一条大SQL可以堵死整个库。
OR改写成IN:OR的效率是n级别,IN的效率是log(n)级别,in的个数建议控制在200以内。
不用函数和触发器,在应用程序实现。
避免%xxx式查询。
少用JOIN。
使用同类型进行比较,比如用'123'和'123'比,123和123比。
尽量避免在WHERE子句中使用!=或<>操作符,否则将引擎放弃使用索引而进行全表扫描。
对于连续数值,使用BETWEEN不用IN:SELECT id FROM t WHERE num BETWEEN 1 AND 5。
列表数据不要拿全表,要使用LIMIT来分页,每页数量也不要太大。
分区
分区表的数据更容易维护,可以通过清楚整个分区批量删除大量数据,也可以增加新的分区来支持新插入的数据。另外,还可以对一个独立分区进行优化、检查、修复等操作。
部分查询能够从查询条件确定只落在少数分区上,速度会很快。
分区表的数据还可以分布在不同的物理设备上,从而搞笑利用多个硬件设备。
可以使用分区表赖避免某些特殊瓶颈,例如InnoDB单个索引的互斥访问、ext3文件系统的inode锁竞争。
可以备份和恢复单个分区。
一个表最多只能有1024个分区。
如果分区字段中有主键或者唯一索引的列,那么所有主键列和唯一索引列都必须包含进来。NULL值会使分区过滤无效。
所有分区必须使用相同的存储引擎。
分表
分表就是把一张大表,按照如上过程都优化了,还是查询卡死,那就把这个✃表分成多张表,把一次查询分成多次查询,然后把结果组合返回给用户。
分表分为垂直拆分和水平拆分,通常以某个字段做拆分项。比如以id字段拆分为100张表:表名为 tableName_id%100。
但:分表需要修改源程序代码,会给开发带来大量工作,极大的增加了开发成本,故:只适合在开发初期就考虑到了大量数据存在웃,做好了分表处理,不适合应用上线了再做修改,成本太高!!!而且选择这个方案,都不如选择我提供的第二第三个方案的成本低!故不建议采用。
分库升级数据库
开源数据库会带来大量的运维成本且其工业品质和MySQL尚有差距,有很多坑要踩,如果你公司要求必须自建数据库,那么选择该类型产品。如tiDB pingcap/tidb,Cubrid Open Source Database With Enterprise Features。
阿里云POLARDB,POLARDB 是阿里云自研的下一代关系型分布式云原生数据库,100%兼容MySQL,存储容量最高可达 100T,性能最高提升至 MySQL 的 6 倍。POLARDB 既融合了商业数据库稳定、可靠、高性能的特征,又具有开源数据库简单、可扩展、持续迭代的优势,而成本只需商用数据库的 1/10。
阿里云OcenanBase,淘宝使用的,扛得住双十一,性能卓著,但是在公测中,我无法尝试,但值得期待。
阿里云HybridDB for MySQL (原PetaData),云数据库HybridDB for MySQL (原名PetaData)是同时支持海量数据在线事务(OLTP)和在线分析(OLAP)的HTAP(Hybrid Transaction/Analytical Processing)关系型数据库。
腾讯云DCDB,DCDB又名TDSQL,一种兼容MySQL协议和语法,支持自动水平拆分的高性能分布式数据库——即业务显示为完整的逻辑表,数据却均匀的拆分到多个分片中;每个分片默认✪采用主备架构,提供灾备、恢复、监控、不停机扩容等全套解决方案,适用于TB或PB级的海量数据场景。
hadoop家族。hbase/hive怼上就是了。但是有很高的运维成本,一般公司是玩不起的,没十万投入是不会有很好的产出的!
我选择了阿里云的MaxCompute配合DataWorks,使用超级舒服,按量付费,成本极低。
MaxCompute可以理解为开源的Hive,提供SQL/mapreduce/ai算法/python脚本/shell脚本◑等操作数据,数据以表格的形式展现,以分布式存储,采用定时任务和批处理的处理数据。DataWorks提供了一种工作流的管理你的数据处理任务和调度监控。
当然你也可以选择阿里云hbase等其他产品,我这里主要是离线处理,故选择MaxCompute,基本都是图形界面操作,大概写了300行SQL,费用不超过100块钱就解决了数据处理问题。
原创文章,作者:Ame,如若转载,请注明出处:https://www.lbseo.cn/13336.html