yum安裝Kubernetes

本篇文章主要介紹通過軟件包管理工具安裝Kubernetes固蚤。

1.環(huán)境準(zhǔn)備

??3臺linux虛擬機(jī)準(zhǔn)備为迈,配置如下

節(jié)點(diǎn)名稱 內(nèi)存 處理器 硬盤 IP地址 主機(jī)名稱
master 2G 1核 35G 192.168.10.101 k8s_master
node1 2G 1核 35G 192.168.10.102 k8s_node1
node2 2G 1核 35G 192.168.10.103 k8s_node2

?? 三個節(jié)點(diǎn)分別配置ip地址 主機(jī)名映射 vim /etc/hosts

192.168.10.101  k8s_master
192.168.10.102  k8s_node1
192.168.10.103  k8s_node2

2. 安裝前的準(zhǔn)備

??在安裝K8S軟件包之前需要對所有節(jié)點(diǎn)的軟件環(huán)境進(jìn)行配置和更新捞蚂。

2.1 禁用selinux

??selinux是2.6+版本的Linux內(nèi)核中提供的強(qiáng)制訪問控制系統(tǒng),在很大程度上加強(qiáng)了Linux的安全性还栓,但是它會影響Kubernetes的某些組件功能肴掷,所以需要禁用它敬锐。

[root@k8s_master ~]# setenforce 0
setenforce: SELinux is disabled

徹底禁用selinux,修改配置文件呆瞻。

vim /etc/selinux/config

將其中的 SELINUX=enforcing 修改為 SELINUX=disabled

# This file controls the state of SELinux on the system.
# SELINUX= can take one of these three values:
#     enforcing - SELinux security policy is enforced.
#     permissive - SELinux prints warnings instead of enforcing.
#     disabled - No SELinux policy is loaded.
#SELINUX=enforcing
SELINUX=disabled
# SELINUXTYPE= can take one of three two values:
#     targeted - Targeted processes are protected,
#     minimum - Modification of targeted policy. Only selected processes are protected. 
#     mls - Multi Level Security protection.
SELINUXTYPE=targeted

2.2 禁用firewalld

??firewalld會影響Docker的網(wǎng)絡(luò)功能台夺,需要在安裝部署前將其禁用掉。

systemctl stop firewalld
systemctl disable firewalld

2.3 更新yum庫

yum update -y

2.4 同步三個節(jié)點(diǎn)的系統(tǒng)時(shí)間

ntpdate ntp1.aliyun.com

其中 ntp1.aliyun.com為阿里的時(shí)間(NTP)服務(wù)器痴脾。

3. etcd集群配置

??etcd是一個高可用的分布式鍵值數(shù)據(jù)庫颤介,Kubernetes利用etcd來存儲某些數(shù)據(jù)。為了提高可用性赞赖,需要在三個節(jié)點(diǎn)服務(wù)器上部署etcd滚朵,形成集群。

3.1 在master節(jié)點(diǎn)上執(zhí)行命令前域,

yum -y install kubernetes-master kubernetes-client etcd

3.1.1 修改etcd的配置文件 /etc/etcd/etcd.conf

#[Member]
#ETCD_CORS=""
ETCD_DATA_DIR="/var/lib/etcd/default.etcd"
#ETCD_WAL_DIR=""
ETCD_LISTEN_PEER_URLS="http://192.168.10.101:2380"
ETCD_LISTEN_CLIENT_URLS="http://192.168.10.101:2379,http://127.0.0.1:2379"
#ETCD_MAX_SNAPSHOTS="5"
#ETCD_MAX_WALS="5"
ETCD_NAME="etcd1"
#ETCD_SNAPSHOT_COUNT="100000"
#ETCD_HEARTBEAT_INTERVAL="100"
#ETCD_ELECTION_TIMEOUT="1000"
#ETCD_QUOTA_BACKEND_BYTES="0"
#ETCD_MAX_REQUEST_BYTES="1572864"
#ETCD_GRPC_KEEPALIVE_MIN_TIME="5s"
#ETCD_GRPC_KEEPALIVE_INTERVAL="2h0m0s"
#ETCD_GRPC_KEEPALIVE_TIMEOUT="20s"
#
#[Clustering]
ETCD_INITIAL_ADVERTISE_PEER_URLS="http://192.168.10.101:2380"
ETCD_ADVERTISE_CLIENT_URLS="http://192.168.10.101:2379"
#ETCD_DISCOVERY=""
#ETCD_DISCOVERY_FALLBACK="proxy"
#ETCD_DISCOVERY_PROXY=""
#ETCD_DISCOVERY_SRV=""
ETCD_INITIAL_CLUSTER="etcd1=http://192.168.10.101:2380,etcd2=http://192.168.10.102:2380,etcd3=http://192.168.10.103:2380"
#ETCD_INITIAL_CLUSTER_TOKEN="etcd-cluster"
#ETCD_INITIAL_CLUSTER_STATE="new"
#ETCD_STRICT_RECONFIG_CHECK="true"
#ETCD_ENABLE_V2="true"
#
#[Proxy]
#ETCD_PROXY="off"
#ETCD_PROXY_FAILURE_WAIT="5000"
#ETCD_PROXY_REFRESH_INTERVAL="30000"
#ETCD_PROXY_DIAL_TIMEOUT="1000"
#ETCD_PROXY_WRITE_TIMEOUT="5000"
#ETCD_PROXY_READ_TIMEOUT="0"
#
#[Security]
#ETCD_CERT_FILE=""
#ETCD_KEY_FILE=""
#ETCD_CLIENT_CERT_AUTH="false"
#ETCD_TRUSTED_CA_FILE=""
#ETCD_AUTO_TLS="false"
#ETCD_PEER_CERT_FILE=""
#ETCD_PEER_KEY_FILE=""
#ETCD_PEER_CLIENT_CERT_AUTH="false"
#ETCD_PEER_TRUSTED_CA_FILE=""
#ETCD_PEER_AUTO_TLS="false"
#
#[Logging]
#ETCD_DEBUG="false"
#ETCD_LOG_PACKAGE_LEVELS=""
#ETCD_LOG_OUTPUT="default"
#
#[Unsafe]
#ETCD_FORCE_NEW_CLUSTER="false"
#
#[Version]
#ETCD_VERSION="false"
#ETCD_AUTO_COMPACTION_RETENTION="0"
#
#[Profiling]
#ETCD_ENABLE_PPROF="false"
#ETCD_METRICS="basic"
#
#[Auth]
#ETCD_AUTH_TOKEN="simple"

3.2 在node1節(jié)點(diǎn)執(zhí)行命令

yum -y install kubernetes-node etcd flannel docker

3.2.1 修改/etc/etcd/etcd.conf 配置文件

#[Member]
#ETCD_CORS=""
ETCD_DATA_DIR="/var/lib/etcd/default.etcd"
#ETCD_WAL_DIR=""
ETCD_LISTEN_PEER_URLS="http://192.168.10.102:2380"
ETCD_LISTEN_CLIENT_URLS="http://192.168.10.102:2379,http://127.0.0.1:2379"
#ETCD_MAX_SNAPSHOTS="5"
#ETCD_MAX_WALS="5"
ETCD_NAME="etcd2"
#ETCD_SNAPSHOT_COUNT="100000"
#ETCD_HEARTBEAT_INTERVAL="100"
#ETCD_ELECTION_TIMEOUT="1000"
#ETCD_QUOTA_BACKEND_BYTES="0"
#ETCD_MAX_REQUEST_BYTES="1572864"
#ETCD_GRPC_KEEPALIVE_MIN_TIME="5s"
#ETCD_GRPC_KEEPALIVE_INTERVAL="2h0m0s"
#ETCD_GRPC_KEEPALIVE_TIMEOUT="20s"
#
#[Clustering]
ETCD_INITIAL_ADVERTISE_PEER_URLS="http://192.168.10.102:2380"
ETCD_ADVERTISE_CLIENT_URLS="http://192.168.10.102:2379"
#ETCD_DISCOVERY=""
#ETCD_DISCOVERY_FALLBACK="proxy"
#ETCD_DISCOVERY_PROXY=""
#ETCD_DISCOVERY_SRV=""
ETCD_INITIAL_CLUSTER="etcd1=http://192.168.10.101:2380,etcd2=http://192.168.10.102:2380,etcd3=http://192.168.10.103:2380"
#ETCD_INITIAL_CLUSTER_TOKEN="etcd-cluster"
#ETCD_INITIAL_CLUSTER_STATE="new"
#ETCD_STRICT_RECONFIG_CHECK="true"
#ETCD_ENABLE_V2="true"
#
#[Proxy]
#ETCD_PROXY="off"
#ETCD_PROXY_FAILURE_WAIT="5000"
#ETCD_PROXY_REFRESH_INTERVAL="30000"
#ETCD_PROXY_DIAL_TIMEOUT="1000"
#ETCD_PROXY_WRITE_TIMEOUT="5000"
#ETCD_PROXY_READ_TIMEOUT="0"
#
#[Security]
#ETCD_CERT_FILE=""
#ETCD_KEY_FILE=""
#ETCD_CLIENT_CERT_AUTH="false"
#ETCD_TRUSTED_CA_FILE=""
#ETCD_AUTO_TLS="false"
#ETCD_PEER_CERT_FILE=""
#ETCD_PEER_KEY_FILE=""
#ETCD_PEER_CLIENT_CERT_AUTH="false"
#ETCD_PEER_TRUSTED_CA_FILE=""
#ETCD_PEER_AUTO_TLS="false"
#
#[Logging]
#ETCD_DEBUG="false"
#ETCD_LOG_PACKAGE_LEVELS=""
#ETCD_LOG_OUTPUT="default"
#
#[Unsafe]
#ETCD_FORCE_NEW_CLUSTER="false"
#
#[Version]
#ETCD_VERSION="false"
#ETCD_AUTO_COMPACTION_RETENTION="0"
#
#[Profiling]
#ETCD_ENABLE_PPROF="false"
#ETCD_METRICS="basic"
#
#[Auth]
#ETCD_AUTH_TOKEN="simple"

3.3 在node2上操作與node1保持一致

??需要注意的是配置文件中的配置項(xiàng)需要修改成node2的辕近。

3.4 三個節(jié)點(diǎn)都執(zhí)行命令

systemctl enable etcd

3.5 同時(shí)啟動etcd服務(wù)

systemctl start etcd

3.6 查看etcd集群健康狀況

etcdctl cluster-health
[root@k8s_master kubernetes]# etcdctl cluster-health
member 6404974f67850bd9 is healthy: got healthy result from http://192.168.10.102:2379
member 859390733a8165f3 is healthy: got healthy result from http://192.168.10.101:2379
member c280bee19c4540ef is healthy: got healthy result from http://192.168.10.103:2379
cluster is healthy

4.Master節(jié)點(diǎn)的配置

??master節(jié)點(diǎn)主要運(yùn)行著apiserver、controller-manager以及scheduler等主要的服務(wù)進(jìn)程话侄。這些服務(wù)的配置文件都位于 /etc/kubernetes目錄中亏推。
??本節(jié)主要說明Kubernetes的master節(jié)點(diǎn)配置。

vim /etc/kubernetes/apiserver
###
# kubernetes system config
#
# The following values are used to configure the kube-apiserver
#

# The address on the local server to listen to.
# KUBE_API_ADDRESS="--insecure-bind-address=127.0.0.1"
# api-server進(jìn)程綁定的ip地址年堆。修改為`--address=0.0.0.0` 表示綁定本機(jī)的所有IP地址。
KUBE_API_ADDRESS="--address=0.0.0.0"

# The port on the local server to listen on.
# 指定api-server監(jiān)聽的端口
KUBE_API_PORT="--port=8080"

# Port minions listen on
# kubelet 監(jiān)聽的服務(wù)端口盏浇。
KUBELET_PORT="--kubelet-port=10250"

# Comma separated list of nodes in the etcd cluster
# 指定etcd集群中每個節(jié)點(diǎn)的地址
KUBE_ETCD_SERVERS="--etcd-servers=http://192.168.10.101:2379,http://192.168.10.102:2379,http://192.168.10.103:2379"

# Address range to use for services
# kubernets中服務(wù)的ip地址范圍
KUBE_SERVICE_ADDRESSES="--service-cluster-ip-range=10.254.0.0/16"

# default admission control policies
# SecurityContextDeny,ServiceAccount 這兩個值與權(quán)限有關(guān)变丧,測試的時(shí)候可以去掉
#KUBE_ADMISSION_CONTROL="--admission-control=NamespaceLifecycle,NamespaceExists,LimitRanger,SecurityContextDeny,ServiceAccount,ResourceQuota"
KUBE_ADMISSION_CONTROL="--admission-control=NamespaceLifecycle,NamespaceExists,LimitRanger,ResourceQuota"

# Add your own!
KUBE_API_ARGS=""

配置完成后,使用以下命令啟動master節(jié)點(diǎn)上面的下面三個服務(wù)绢掰。

systemctl start kube-apiserver
systemctl start kube-controller-manager
systemctl start kube-scheduler

加入開機(jī)啟動項(xiàng)

systemctl enable kube-apiserver
systemctl enable kube-controller-manager
systemctl enable kube-scheduler

kubernetes的api-server提供的各個接口都是RESTful的痒蓬,我們可以通過瀏覽器或者其它方式訪問master節(jié)點(diǎn)的8080端口。api-server會以JSON的形式返回各個API的地址滴劲。

[root@k8s_master kubernetes]# curl -XGET http://192.168.10.101:8080/
{
  "paths": [
    "/api",
    "/api/v1",
    "/apis",
    "/apis/apps",
    "/apis/apps/v1beta1",
    "/apis/authentication.k8s.io",
    "/apis/authentication.k8s.io/v1beta1",
    "/apis/authorization.k8s.io",
    "/apis/authorization.k8s.io/v1beta1",
    "/apis/autoscaling",
    "/apis/autoscaling/v1",
    "/apis/batch",
    "/apis/batch/v1",
    "/apis/batch/v2alpha1",
    "/apis/certificates.k8s.io",
    "/apis/certificates.k8s.io/v1alpha1",
    "/apis/extensions",
    "/apis/extensions/v1beta1",
    "/apis/policy",
    "/apis/policy/v1beta1",
    "/apis/rbac.authorization.k8s.io",
    "/apis/rbac.authorization.k8s.io/v1alpha1",
    "/apis/storage.k8s.io",
    "/apis/storage.k8s.io/v1beta1",
    "/healthz",
    "/healthz/ping",
    "/healthz/poststarthook/bootstrap-controller",
    "/healthz/poststarthook/extensions/third-party-resources",
    "/healthz/poststarthook/rbac/bootstrap-roles",
    "/logs",
    "/metrics",
    "/swaggerapi/",
    "/ui/",
    "/version"
  ]
}

5.Node節(jié)點(diǎn)的配置

??node節(jié)點(diǎn)上面主要運(yùn)行 kube-proxy和kubelet等進(jìn)程攻晒。我們需要修改的配置文件主要有 /etc/kubernetes/config/etc/kubernetes/proxy 以及 /etc/kubernetes/kubelet班挖,這3個文件分別為kubernetes全局配置文件鲁捏、kube-proxy 配置文件以及kubelet配置文件。

5.1 修改 /etc/kubernetes/config

主要修改 KUBE_MASTER指定apiserver的地址

###
# kubernetes system config
#
# The following values are used to configure various aspects of all
# kubernetes services, including
#
#   kube-apiserver.service
#   kube-controller-manager.service
#   kube-scheduler.service
#   kubelet.service
#   kube-proxy.service
# logging to stderr means we get it in the systemd journal
KUBE_LOGTOSTDERR="--logtostderr=true"

# journal message level, 0 is debug
KUBE_LOG_LEVEL="--v=0"

# Should this cluster be allowed to run privileged docker containers
KUBE_ALLOW_PRIV="--allow-privileged=false"

# How the controller-manager, scheduler, and proxy find the apiserver
# 指定apiserver的地址
KUBE_MASTER="--master=http://192.168.10.101:8080"

5.2 修改 /etc/kubernetes/kubelet

###
# kubernetes kubelet (minion) config

# The address for the info server to serve on (set to 0.0.0.0 or "" for all interfaces)
# 綁定本機(jī)所有的網(wǎng)絡(luò)接口
KUBELET_ADDRESS="--address=0.0.0.0"

# The port for the info server to serve on
# 指定kubelet監(jiān)聽的端口
KUBELET_PORT="--port=10250"

# You may leave this blank to use the actual hostname
# 此處測試后必須使用ip地址萧芙,使用hostname在master節(jié)點(diǎn)獲取不到
KUBELET_HOSTNAME="--hostname-override=192.168.10.102"

# location of the api-server
# api-server的地址
KUBELET_API_SERVER="--api-servers=http://192.168.10.101:8080"

# pod infrastructure container
KUBELET_POD_INFRA_CONTAINER="--pod-infra-container-image=registry.access.redhat.com/rhel7/pod-infrastructure:latest"

# Add your own!
KUBELET_ARGS=""

5.3 修改 /etc/kubernetes/proxy

###
# kubernetes proxy config

# default config should be adequate

# Add your own!
KUBE_PROXY_ARGS="--bind-address=0.0.0.0"

5.4 啟用配置

systemctl enable kube-proxy
systemctl enable kubelet

5.5 啟動kube-proxy 和 kubelet 服務(wù)

systemctl restart kube-proxy
systemctl restart kubelet

5.6 驗(yàn)證測試

在master節(jié)點(diǎn)使用以下命令測試

[root@k8s_master kubernetes]# kubectl get nodes
NAME             STATUS    AGE
192.168.10.102   Ready     10s
192.168.10.103   Ready     8s

6 配置網(wǎng)絡(luò)

6.1 docker 阿里云加速配置

vim /etc/docker/daemon.json

內(nèi)容如下

{
"registry-mirrors": ["https://0o7m8o4u.mirror.aliyuncs.com"]
}

6.2 Flannel 配置

??Flannel是Kubernetes中常用的網(wǎng)絡(luò)配置工具给梅,用于配置第三層(網(wǎng)絡(luò)層)網(wǎng)絡(luò)結(jié)構(gòu)假丧。Flannel需要在集群中的每一臺機(jī)器上運(yùn)行一個名為flanneld的代理程序,負(fù)責(zé)從預(yù)配置地址空間中為每臺主機(jī)分配一個網(wǎng)段动羽。Flannel直接使用Kubernetes API 或 etcd 存儲網(wǎng)絡(luò)配置包帚,分配的子網(wǎng)及任何輔助數(shù)據(jù)。

6.2.1 分配docker網(wǎng)段

??在配置Flannel之前运吓,我們需要預(yù)先給Docker網(wǎng)絡(luò)分配網(wǎng)段渴邦。在master節(jié)點(diǎn)上執(zhí)行以下命令:

etcdctl mk /atomic.io/network/config '{"Network":"172.17.0.0/16","SubnetMin":"172.17.1.0","SubnetMax":"172.17.254.0"}'

??在etcd中添加一個名稱為 /automic.io/network/config 的主鍵,通過該主鍵設(shè)置提供給Docker容器使用的網(wǎng)段以及子網(wǎng)拘哨。

6.2.2 修改flannel配置文件

??在Node1和Node2這兩個node節(jié)點(diǎn)上面修改/etc/sysconfig/flanneld

vim /etc/sysconfig/flanneld
# Flanneld configuration options  

# etcd url location.  Point this to the server where etcd runs
# etcd 集群各個節(jié)點(diǎn)的地址
FLANNEL_ETCD_ENDPOINTS="http://192.168.10.101:2379,http://192.168.10.102:2379,http://192.168.10.103:2379"

# etcd config key.  This is the configuration key that flannel queries
# For address range assignment
# 指定ectd中網(wǎng)絡(luò)配置的主鍵谋梭,該主鍵要與前面設(shè)置的主鍵值完全一致。
FLANNEL_ETCD_PREFIX="/atomic.io/network"

# Any additional options that you want to pass
# --iface 用來指定Flannel網(wǎng)絡(luò)使用的網(wǎng)絡(luò)接口宅静。
FLANNEL_OPTIONS="--iface=eth0"

6.2.3 啟動flanneld

??分別在node1和node2節(jié)點(diǎn)上啟動flanneld

systemctl enable flanneld
systemctl start flanneld

啟動成功后章蚣,通過命令 ip address show 查看網(wǎng)絡(luò)接口,會發(fā)現(xiàn)多出一個flannel0的網(wǎng)絡(luò)接口

[root@k8s_node1 kubernetes]# ip address show
1: lo: <LOOPBACK,UP,LOWER_UP> mtu 65536 qdisc noqueue state UNKNOWN group default qlen 1000
    link/loopback 00:00:00:00:00:00 brd 00:00:00:00:00:00
    inet 127.0.0.1/8 scope host lo
       valid_lft forever preferred_lft forever
    inet6 ::1/128 scope host 
       valid_lft forever preferred_lft forever
2: eth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP group default qlen 1000
    link/ether 00:0c:29:01:26:69 brd ff:ff:ff:ff:ff:ff
    inet 192.168.10.102/24 brd 192.168.10.255 scope global noprefixroute eth0
       valid_lft forever preferred_lft forever
    inet6 fe80::135b:8559:71:4455/64 scope link noprefixroute 
       valid_lft forever preferred_lft forever
    inet6 fe80::da48:2273:79f5:65ce/64 scope link noprefixroute 
       valid_lft forever preferred_lft forever
    inet6 fe80::be93:9fe:a854:66da/64 scope link noprefixroute 
       valid_lft forever preferred_lft forever
3: docker0: <NO-CARRIER,BROADCAST,MULTICAST,UP> mtu 1500 qdisc noqueue state DOWN group default 
    link/ether 02:42:98:0d:46:0a brd ff:ff:ff:ff:ff:ff
    inet 172.17.0.1/16 scope global docker0
       valid_lft forever preferred_lft forever
4: flannel0: <POINTOPOINT,MULTICAST,NOARP,UP,LOWER_UP> mtu 1472 qdisc pfifo_fast state UNKNOWN group default qlen 500
    link/none 
    inet 172.17.92.0/16 scope global flannel0
       valid_lft forever preferred_lft forever
    inet6 fe80::265:5425:9539:94c/64 scope link flags 800 
       valid_lft forever preferred_lft forever

??另外姨夹,flannel還生成了兩個配置文件纤垂,分別是

  • /run/flannel/subnet.env

    FLANNEL_NETWORK=172.17.0.0/16
    FLANNEL_SUBNET=172.17.92.1/24
    FLANNEL_MTU=1472
    FLANNEL_IPMASQ=false
    
  • /run/flannel/docker

DOCKER_OPT_BIP="--bip=172.17.92.1/24"
DOCKER_OPT_IPMASQ="--ip-masq=true"
DOCKER_OPT_MTU="--mtu=1472"
DOCKER_NETWORK_OPTIONS=" --bip=172.17.92.1/24 --ip-masq=true --mtu=1472"

好了,到這兒kubernetes已經(jīng)安裝成功了磷账。

最后編輯于
?著作權(quán)歸作者所有,轉(zhuǎn)載或內(nèi)容合作請聯(lián)系作者
  • 序言:七十年代末峭沦,一起剝皮案震驚了整個濱河市,隨后出現(xiàn)的幾起案子逃糟,更是在濱河造成了極大的恐慌吼鱼,老刑警劉巖,帶你破解...
    沈念sama閱讀 216,997評論 6 502
  • 序言:濱河連續(xù)發(fā)生了三起死亡事件绰咽,死亡現(xiàn)場離奇詭異菇肃,居然都是意外死亡,警方通過查閱死者的電腦和手機(jī)取募,發(fā)現(xiàn)死者居然都...
    沈念sama閱讀 92,603評論 3 392
  • 文/潘曉璐 我一進(jìn)店門琐谤,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人玩敏,你說我怎么就攤上這事斗忌。” “怎么了旺聚?”我有些...
    開封第一講書人閱讀 163,359評論 0 353
  • 文/不壞的土叔 我叫張陵织阳,是天一觀的道長。 經(jīng)常有香客問我砰粹,道長唧躲,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 58,309評論 1 292
  • 正文 為了忘掉前任,我火速辦了婚禮惊窖,結(jié)果婚禮上刽宪,老公的妹妹穿的比我還像新娘。我一直安慰自己界酒,他們只是感情好圣拄,可當(dāng)我...
    茶點(diǎn)故事閱讀 67,346評論 6 390
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著毁欣,像睡著了一般庇谆。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發(fā)上凭疮,一...
    開封第一講書人閱讀 51,258評論 1 300
  • 那天饭耳,我揣著相機(jī)與錄音,去河邊找鬼执解。 笑死寞肖,一個胖子當(dāng)著我的面吹牛,可吹牛的內(nèi)容都是我干的衰腌。 我是一名探鬼主播新蟆,決...
    沈念sama閱讀 40,122評論 3 418
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼右蕊!你這毒婦竟也來了琼稻?” 一聲冷哼從身側(cè)響起,我...
    開封第一講書人閱讀 38,970評論 0 275
  • 序言:老撾萬榮一對情侶失蹤饶囚,失蹤者是張志新(化名)和其女友劉穎帕翻,沒想到半個月后,有當(dāng)?shù)厝嗽跇淞掷锇l(fā)現(xiàn)了一具尸體萝风,經(jīng)...
    沈念sama閱讀 45,403評論 1 313
  • 正文 獨(dú)居荒郊野嶺守林人離奇死亡嘀掸,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內(nèi)容為張勛視角 年9月15日...
    茶點(diǎn)故事閱讀 37,596評論 3 334
  • 正文 我和宋清朗相戀三年,在試婚紗的時(shí)候發(fā)現(xiàn)自己被綠了规惰。 大學(xué)時(shí)的朋友給我發(fā)了我未婚夫和他白月光在一起吃飯的照片横殴。...
    茶點(diǎn)故事閱讀 39,769評論 1 348
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖卿拴,靈堂內(nèi)的尸體忽然破棺而出,到底是詐尸還是另有隱情梨与,我是刑警寧澤堕花,帶...
    沈念sama閱讀 35,464評論 5 344
  • 正文 年R本政府宣布,位于F島的核電站粥鞋,受9級特大地震影響缘挽,放射性物質(zhì)發(fā)生泄漏。R本人自食惡果不足惜,卻給世界環(huán)境...
    茶點(diǎn)故事閱讀 41,075評論 3 327
  • 文/蒙蒙 一壕曼、第九天 我趴在偏房一處隱蔽的房頂上張望苏研。 院中可真熱鬧,春花似錦腮郊、人聲如沸摹蘑。這莊子的主人今日做“春日...
    開封第一講書人閱讀 31,705評論 0 22
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽衅鹿。三九已至,卻和暖如春过咬,著一層夾襖步出監(jiān)牢的瞬間大渤,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 32,848評論 1 269
  • 我被黑心中介騙來泰國打工掸绞, 沒想到剛下飛機(jī)就差點(diǎn)兒被人妖公主榨干…… 1. 我叫王不留泵三,地道東北人。 一個月前我還...
    沈念sama閱讀 47,831評論 2 370
  • 正文 我出身青樓衔掸,卻偏偏與公主長得像烫幕,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子具篇,可洞房花燭夜當(dāng)晚...
    茶點(diǎn)故事閱讀 44,678評論 2 354

推薦閱讀更多精彩內(nèi)容