Centos7上安裝Redis5.05_20190805
查看系統(tǒng)版本號
cat /etc/redhat-release
以root用戶安裝Redis5.05晋南,進(jìn)行以下操作:
一、上傳 Redis 安裝包 redis-5.0.5.tar.gz 至 /home/bigdata 目錄下
cd /home/bigdata
ls
解壓redis安裝包
tar -zxvf redis-5.0.5.tar.gz
創(chuàng)建軟鏈接
ln -s redis-5.0.5 redis
修改 Redis 的文件夾權(quán)限為 777
chmod -R 777 redis
二一铅、安裝gcc不瓶,進(jìn)入redis安裝目錄編譯
安裝gcc
yum install gcc
進(jìn)入redis安裝目錄編譯
cd /home/bigdata/redis
make
三禾嫉、修改 redis 配置文件 redis.conf
cd /home/bigdata/redis
vi redis.conf
配置所有ip可以訪問并關(guān)閉保護(hù)模式
將配置文件中bind 127.0.0.1 改為 bind 0.0.0.0 ,或者直接注釋掉蚊丐,所有ip可以訪問。
將protected-mode yes 改為 no艳吠,關(guān)閉保護(hù)模式麦备。
后臺啟動
將daemonize no 改為 yes
備注:配置文件配置項(xiàng)說明
1、daemonize介紹
A昭娩、redis.conf配置文件中daemonize守護(hù)線程凛篙,默認(rèn)是NO。
B栏渺、daemonize是用來指定redis是否要用守護(hù)線程的方式啟動呛梆。
2、daemonize 設(shè)置yes或者no區(qū)別
daemonize:yes:redis采用的是單進(jìn)程多線程的模式磕诊。當(dāng)redis.conf中選項(xiàng)daemonize設(shè)置成yes時填物,代表開啟守護(hù)進(jìn)程模式。在該模式下霎终,redis會在后臺運(yùn)行滞磺,并將進(jìn)程pid號寫入至redis.conf選項(xiàng)pidfile設(shè)置的文件中,此時redis將一直運(yùn)行莱褒,除非手動kill該進(jìn)程击困。
daemonize:no: 當(dāng)daemonize選項(xiàng)設(shè)置成no時,當(dāng)前界面將進(jìn)入redis的命令行界面广凸,exit強(qiáng)制退出或者關(guān)閉連接工具(putty,xshell等)都會導(dǎo)致redis進(jìn)程退出阅茶。
src/redis-server ./redis.conf
四蛛枚、自定義redis配置啟動,同時啟動redis客戶端連接
4.1脸哀、自定義redis配置啟動
/home/bigdata/redis/src/redis-server /home/bigdata/redis/redis.conf
驗(yàn)證redis是否成功啟動
ps -ef | grep redis
或者
ps aux | grep redis
4.2蹦浦、啟動redis客戶端連接
/home/bigdata/redis/src/redis-cli
五、Redis Desktop Manager連接
Redis Desktop Manager 漢化版安裝包 redis-desktop-manager.rar 下載地址:
https://www.7down.com/soft/233274.html
需要先關(guān)閉防火墻企蹭,no running表示已關(guān)閉白筹。輸入ip就可以連接上。
systemctl stop firewalld.service
systemctl disable firewalld.service
firewall-cmd --state
Redis Desktop Manager 連接配置
名稱: 192.168.1.26 Redis
Redis地址端口: 192.168.1.26:6379
六谅摄、
4徒河、啟動、重啟送漠、停止
啟動redis
systemctl start redis
systemctl restart redis
systemctl stop redis
5顽照、開機(jī)自啟動
redis服務(wù)加入開機(jī)啟動
systemctl enable redis
禁止開機(jī)啟動
systemctl disable redis
6、查看狀態(tài)
systemctl status redis
開啟服務(wù)自啟動
sudo chkconfig redis on
加入開機(jī)自啟服務(wù)
sudoo chkconfig --add redis
ps -ef | grep redis
ps aux | grep redis
kill -9 8629
Redis 常見命令
hashmap? redis 賦值
hset flink-test 'flink' 'flink'
hashmap 去除 key 為 flink-test 的所有鍵值對
hgetall flink-test
啟動zookeeper(后臺運(yùn)行)
nohup bin/zookeeper-server-start.sh config/zookeeper.properties &
查看zookeeper是否運(yùn)行
jps
6740 QuorumPeerMain
關(guān)閉zookeeper
bin/zookeeper-server-stop.sh config/zookeeper.properties &
啟動kafka(后臺運(yùn)行)
nohup bin/kafka-server-start.sh config/server.properties &
或者
nohup bin/kafka-server-start.sh config/server.properties >/dev/null 2>&1 &
查看kafka是否運(yùn)行
jps
7587 Kafka
關(guān)閉kafka
bin/kafka-server-stop.sh config/server.properties
1.4闽寡、使用kafka
1)代兵、創(chuàng)建topic:
/home/bigdata/kafka/bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic apache-flink-test
2)、查看topic:
/home/bigdata/kafka/bin/kafka-topics.sh --list --zookeeper localhost:2181
3)爷狈、生產(chǎn)者
/home/bigdata/kafka/bin/kafka-console-producer.sh --broker-list localhost:9092 --topic apache-flink-test
4)植影、消費(fèi)者
/home/bigdata/kafka/bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic apache-flink-test --from-beginning
該命令中含有過時方法 --zookeeper,該方法在老版本kafka0.90之前使用
/home/bigdata/kafka/bin/kafka-console-consumer.sh --zookeeper localhost:9092 --topic apache-flink-test --from-beginning
備注:消費(fèi)kafka時遇到的問題:kafka 創(chuàng)建消費(fèi)者報錯 consumer zookeeper is not a recognized option
在做kafka測試的時候涎永,使用命令bin/kafka-console-consumer.sh --zookeeper 192.168.0.140:2181,192.168.0.141:2181 --topic test --from-beginning啟動消費(fèi)者思币,發(fā)現(xiàn)一只報錯consumer zookeeper is not a recognized option,搜索了半天羡微,一只沒有解決谷饿,最后,換了一個低版本的kakfa妈倔,發(fā)現(xiàn)在啟動的時候說使用 --zookeeper是一個過時的方法博投,此時,才知道原來在最新的版本中盯蝴,這種啟動方式已經(jīng)被刪除了毅哗,
最后附上0.90版本之后啟動消費(fèi)者的方法: bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic test --from-beginning
CSDN參考鏈接:
kafka 創(chuàng)建消費(fèi)者報錯 consumer zookeeper is not a recognized option
https://blog.csdn.net/csdn_sunlighting/article/details/81516646
kafka中消費(fèi) kafka topic 后應(yīng)該關(guān)閉消費(fèi)進(jìn)程
(1)使用消費(fèi)命令時,用 Ctrl + C 關(guān)閉消費(fèi)進(jìn)程
(2)jps -m 查看kafka消費(fèi)進(jìn)程號结洼,之后殺死對應(yīng)的進(jìn)程
jps -m
kill -9 進(jìn)程號
5)黎做、刪除topic
/home/bigdata/kafka/bin/kafka-topics --delete --zookeeper 【zookeeper server:port】 --topic 【topic name】
[server.properties需要 設(shè)置delete.topic.enable=true]
參考鏈接:
kafka偽分布式安裝(2.12版) - Runner_Jack - 博客園
https://www.cnblogs.com/runnerjack/p/8592036.html
testnode1 192.168.1.27
http://192.168.1.27:8081/
關(guān)閉 防火墻
(1)查看防火墻狀態(tài)
systemctl status firewalld.service
(2)關(guān)閉防火墻(下次重啟后,防火墻再次自動開啟)
systemctl stop firewalld.service
(3)禁止防火墻服務(wù)器(即永久關(guān)閉防火墻)
systemctl disable firewalld.service
flink.kafkaFlink.KafkaDemo
flink同樣支持兩種提交方式松忍,默認(rèn)不指定就是客戶端方式蒸殿。如果需要使用集群方式提交的話。可以在提交作業(yè)的命令行中指定-d或者--detached 進(jìn)行進(jìn)群模式提交宏所。
? ? ? ? -d,--detached ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?If present, runs the job in??detached mode(分離模式)
客戶端提交方式:$FLINK_HOME/bin/flink run ? -c com.daxin.batch.App flinkwordcount.jar?酥艳,客戶端會多出來一個CliFrontend進(jìn)程,就是驅(qū)動進(jìn)程爬骤。
集群模式提交:$FLINK_HOME/bin/flink run -d ?-c com.daxin.batch.App flinkwordcount.jar 程序提交完畢退出客戶端充石,不在打印作業(yè)進(jìn)度等信息!
更多細(xì)節(jié)參考flink的幫助文檔霞玄,$FLINK_HOME/bin/flink ?--help
flinkTestConsumeKafka-1.0-SNAPSHOT.jar
$FLINK_HOME/bin/flink run -d -c flink.kafkaFlink flinkTestConsumeKafka-1.0-SNAPSHOT.jar
$FLINK_HOME/bin/flink run -d -c flink.kafkaFlink.KafkaDemo /home/jobs/flink/flinkTestConsumeKafka-1.0-SNAPSHOT.jar