导图社区 精装房装修
三方两厅精装房装修过程全记录,相信你看完之后能帮助你避开很多坑,如果你说正在着手准备装修新房的小伙伴,欢迎来交流心得呀。
编辑于2022-03-28 09:36:43zx
整改交付问题
待整改
大厅裂缝
公卫湿区换瓷砖
主卫马桶装饰打胶
推拉门处门槛多处开裂
20220117发现
厨房洗菜盆下方柜门起皮
换掉柜门
公卫淋浴屏两块瓷砖空鼓
换掉两块瓷砖
公卫湿区一块瓷砖开裂
换掉
主卫风机滴水
安装没什么问题,可能是有点倒灌,及天气冷导致,没办法处理
202203发现
全屋多处墙面开裂
等入住4个月后处理,即0619
对讲系统不能用
可拨出,无法拨入
报警器被按下影响
报警器被按下
先按1234解除报警
再联系管家拿钥匙来把报警器还原
公卫漏水导致柜子门板泡水
以后要小心板上不要留下水
不需维修处理
进度:裂缝等问题待整改
报问题
整改
验收
处理墙面开裂问题 0619
收房
进度
签名收房 202111
交物业费
房产证半年办好 0630
电过户
问管家要户号
0306 1302 2223 32141
关注南方电网公众号
按管家给的指引绑定银行卡交费
出现问题:该用电区域查无此用户
解绑原手机号,重绑手机号 130~79
已解决
公众号--该类--过户
可转阶梯计费模式
燃气
佛燃能源公众号
缴费
进入佛燃能源公众号
点击菜单e网通
选择顺德港华燃气
点击业务办理--我要缴费
通过微信支付完成缴费
进度
先安装好热水器再报装
报开通燃气 周末可上门
通气
验收
完成一次缴费
美缝
报价
冬冬 1000 地板
德高瓷缝剂
梁工 900
颜色
贵族银
金属灰
亚浅灰
施工位置 约50平
客厅 地面 踢脚线
厨房
卫生间
阳台
进度:已预约11-28前做好
已付300订金
已购买材料,放冬冬家中
确认材料
开始施工
验收
晾衣架
商品 价格
四季沐歌M-HX003F-L 京东899
11-10 20:00 449.5
离线声控 风干 除菌 照明
四季沐歌M-HZ712 H-MH-APP 京东 1199
11-10 20:00 599
风干 烘干 除菌 照明 米家APP
黑创零度白 天猫烘干款 1150 已购买
前200名半价749 11-11 0:00 优先级A
送天猫精灵 晾衣架20个 晾衣篮
包安装
售后
质保:整机3年,电机5年
购买时间20211111
入口
电话 4006120390
淘宝客服
问题
约1/3概率进入无法通过wifi或蓝牙控制的状态,重启才能恢复
配网
长按停止键,听到响声后按照明键,进入配网状态
天猫精灵app上添加设备
进度:已收货 已报安装
与安装师傅约具体安装时间 2~3天
联系客服获取礼品
礼品约需要15天(12-15)
不稳的问题 需用胶水粘住
前200名半价749 12月15日首页公布
未中奖 规则不明 已投诉
注意一下投诉结果
配网
售后确认
天猫精灵经常无法控制
更换模块
坑,不处理了,用遥控器算了
移动电位
需移动 引线都应有火线零线地线 线材需要铜线、够粗 需挂网
大厅
沙发内 插座+报警器 往厅门方向平移 报警器外边缘离窗墙4000mm
沙发内 插座 引线装轨道插座 线出口离地1100mm、离窗墙5200mm
餐厅 灯电位 移居中,灯拆掉,留电线
主人房
床头柜位置 插座+警报器 往主卫方向平移 中心离主卫墙800mm
梳妆台位置 开关+插座并排一起摆放 下边沿离地800mm,右边沿离窗墙750mm
长辈房
书桌位置 86插座拆掉 引线装轨道插座 线出口离地948mm 离门墙1480mm
窗帘插座 把书桌位置拆下的86插座装到窗帘电机下面 上边沿离顶450mm,外边沿离窗墙100mm
儿童房
窗帘插座 移到窗帘电机下面 上边沿离顶450mm,外边沿离窗墙62mm
后加 移空调位插座 离西墙尽量近
价格
一般 100/pcs
施工人员
找管家物业 100
阿鑫 150
林 本色 80
进度:已付订金
本色林报价 80*11=880
付订金
施工
验收
加儿童房空调移插座
付尾款 与墙漆一起
刷墙漆
面积估算 221.48m2
大厅 63.77m2
西墙 (9160-已有柜1500)*高2690=20.6054
东墙9160*2690-主卧门920*2210-厨房门1480*2210=19.3364
南墙 长3360*2690-窗2630*2250=3.1209
北墙3360*2590-大厅门1070*2300=6.5774
过道南2909*高2380-长辈房门920*2210=4.89022
过道北2909*2380-儿童房门920*2210-公卫门825*2210=3.06697
吊顶补差 吊顶低补差300*(3360+3360+(9160-2230)+(9160-2230))=6.174
主卧 44.16m2
西墙5777*2740-主卧门920*2210=13.79578
东墙5777*2740-主卫门82.5*2210=15.646655
南墙3060*2740-主卧窗2430*1600=4.4964
北墙3060*2740=8.3844
梁底面2060*600=1.836
儿童房 23.58m2
西墙2470*2740=6.7678
东墙2470*2740-儿童房窗(2400*1070)=4.1998m2
南墙2673*2740-儿童房门920*2210=5.29082
北墙2673*2740=7.32402
长辈房 30.62m2
西墙(2867+南梁690)*2740=9.74618
东墙(2867+南梁690)*2740=9.74618
南墙2676*2740-窗2230*1600=3.76424
北墙2676*2740-门920*2210=5.29904
南梁 2460*710=1.7466
东梁 2867*110=0.31537
顶部 59.35m2
儿童房 2673*2470=6.60231
长辈房 2867*2676+飘窗(2676-205)*690=9.377082
主卧3972*3060+1062*1805=14.07123
大厅 玄关1560*2250+主厅6910*3360+过道1066*2909-入门柜1500*350=29.303594
购买材料 2遍用量 每升涂刷7~8m2
多乐士金装五合一面漆 18L*2
多乐士底漆 18L
报价
阿鑫 3400 + 电位100/槽位
林 3000 + 电位 80/面板
晓艾 18/m2
余利灿 15/m2
多乐士 店里买材料 13/m2 只人工 15/m2
阿强 20/m2
多乐士刷新服务 19/m2
耗材估算
颜色耗材 150.31+69.24=219.55
脏粉 4.67
电视背景 (2500+450)*2380/2-(3600-900-1130)*虚拟三角高950/2=2.76
主卧背景 700*2740=1.91
漫步灰 50.35
电视背景 (900+2470)*2380/2=4.01
主卧背景 1160*3972=4.6
大厅 41.74
西墙 (9160-已有柜1500)*高2380=18.23
东墙9160*2380-主卧门920*2210-厨房门1480*2210=16.5
南墙 长3360*2380-窗2630*2250=2.08
北墙3360*2380-大厅门1070*2300=5.54
过道南2909*高2380-长辈房门920*2210=4.89
过道北2909*2380-儿童房门920*2210-公卫门825*2210=3.07
电视背景除差 3600*2380=-8.57
奶咖 95.29
电视背景 2250*高1430/2=1.61
主卧背景 (2740-1160)*3972=6.39
长辈房 30.62m2
西墙(2867+南梁690)*2740=9.74618
东墙(2867+南梁690)*2740=9.74618
南墙2676*2740-窗2230*1600=3.76424
北墙2676*2740-门920*2210=5.29904
南梁 2460*710=1.7466
东梁 2867*110=0.31537
儿童房 23.58m2
西墙2470*2740=6.7678
东墙2470*2740-儿童房窗(2400*1070)=4.1998m2
南墙2673*2740-儿童房门920*2210=5.29082
北墙2673*2740=7.32402
主卧 33.09
西墙5777*2740-主卧门920*2210=13.79578
东墙5777*2740-主卫门82.5*2210=15.646655
南墙3060*2740-主卧窗2430*1600=4.4964
北墙3060*2740=8.3844
梁底面2060*600=1.836
背景墙除差 3.972*2.74=-11.07
纯白 69.24
儿童房顶 2673*2470=6.6
长辈房顶 2867*2676=7.67
主卧房顶 (3972-600)*3060+1062*1805=12.24
大厅顶 玄关1560*2250+主厅6910*3360+过道1066*2909-入门柜1500*350=29.3
厅吊顶补差(吊顶高) (2690-2380)*(9160+(9160-1500)+3360+3360)=7.26
厅吊顶补差(多出) 吊顶低补差300*(3360+3360+(9160-2230)+(9160-2230))=6.17
底漆 219.55
墙漆配比 每种颜色多预留1升 每升墙漆1.28kg
脏粉5平,加预留1.72升,2.2kg
漫步灰51平,加预留8.35升,10.7kg
奶咖96平,加预留14.84升,19kg
白70平,加预留11.09升,14.2kg
保护耗材
施工方自理
施工 所有地方1底2面
顶部全部 白
厅四壁 漫步灰
厅电视墙 3拼色 脏粉 漫步灰 奶咖
顶 奶咖450mm 脏粉2250mm 漫步灰900
底 奶咖1130 漫步灰2470 虚拟点离窗墙900
主卧背景 3拼色 脏粉 漫步灰 奶咖
漫步灰高度1160
脏粉离外墙1000,宽度700
主卧四壁 奶咖
儿童房四壁 奶咖
长辈房四壁 奶咖
进度:已付订金
墙漆已买 已收货
确认好设计
谈价钱 刷漆+调色+保护+移电位 3880
付订金 500
移电位
12月2日~12月3日刷底漆
12-4 刷面漆
加1个电位
验收
联系林仔补漆 1-9
补漆 1-16
付清尾款 3960-500 1-16
剩余的问题,自己修补
灯具
购买项
餐厅灯 1
房间灯 3
客厅灯 1
灯品牌
欧普照明
雷士照明
飞利浦照明 2000
松下照明
FSL佛山照明
TCL照明
套餐 报价
雷士 C6满天星三室两厅升级款 淘宝 1104 已购买
11.11 0:00~1:00 1127 前150名764.5 优先级A
客厅+3卧 小米/天猫
厅 112W 卧 32W 次卧 24W 餐厅3*5W
不包安装
售后
保质期3年
第1年有任何质量问题配件免费补寄,若产生换货商家承担来回运费;
第2年保修承担配件免费补寄,若产生换货需由买家承担一半运费;
第3年保修承担配件费用,但不承担运费,若产生换货需由买家自行承担运费
联系客服获取售后
配网
米家
天猫精灵
佛山照明 走廊灯 89 已购买
无法调节色温 已申请退款
退款到账
哈达曼廊灯 心形小号 118
24w
配网
恢复出厂设置,按墙壁开关8到9下,速度匀速,不快不慢,(一开一关算一下),直到灯具会闪,停止按开关,待灯具闪完,对天猫精灵说:发现智能设备,重新连接
售后
无特别描述,应是标准三包
7天包退 15天包换 1年保修
联系客服获取售后
进度:已收货 得到奖品
11-30公布购买半价排名
获得半价奖励
发放半价奖励341
拆除原灯 自行安装
配网完成
售后确认
空调&新风
客厅柜机 商品 制冷量 制热量 APF 渠道 电子膨胀阀 价格
美的KFR-51LW/N8ZHB1 5110 7210+2200 4.68 美福 ? 4759
美的KFR-51LW/N8MWA1 5110 7220+2200 4.75 美福 ? 6289
美的KFR-51LW/BDN8Y-YH200(1)A 5120 7220+2100 4.78 美福 无 4419
华凌KFR-51LW/N8HB1 5110 7210 4.68 美福 无 4009
华凌KFR-51LW/N8HA1 5110 7210+2100 4.68 美福 无 3639最低3500 左右扫风 京东实付3470
外机双排 宽807 高555 深328
内机 宽445 高1785 深430
安装时,管道需挨墙走,以方便窗帘放置
华凌KFR-51LW/N8HB1 5110 7210+2100 4.68 美福 有? 4399最低3500 上下左右扫风
华凌KFR-72LW/N8HA1 7210 9660 4.39 京东 有 4999 左右扫风
外机 宽890 高673 深342
内机 宽445 高1785 深430
主卧空调 商品 制冷量 制热量 APF 渠道 电子膨胀阀 价格
华凌KFR-35GW/N8HE1 3500 5000 5.27 京东 有 2099 上下左右扫风
外机双排 宽807 高555 深328
内机 宽924 高303 深193
一键防直吹 4代自清洁
华凌KFR-35GW/N8HA1 3500 5000 5.27 美福 有 2009 上下扫风
外机1.6排 宽807(857) 高555 深328
内机 宽900 高305 深190
美的KFR-35GW/N8MKA1 3500 5000 5.27 美福 有 3144 美福实付2959
外机 807 555 328
内机 990 328 200
一键防直吹 4代自清洁 新风
渠道
美福 3144
京东 3499
次卧空调 商品 制冷量 制热量 APF 渠道 电子膨胀阀 价格
华凌KFR-35GW/N8HK1 3500 5000 5.27 美福 有 2769 上下左右扫风 京东实付2610
外机 807 555 328
内机 1000 327 203
一键防直吹 新风 4代自清洁
渠道
京东 2769
美福 2899
华凌KFR-26GW/N8HA1 2600 4400 5.27 美福 无 1819 上下扫风
外机 907 555 328
内机 900 305 190
一键防直吹 4代自清洁
渠道 报价
京东 1669
淘宝华凌专卖店 1669
售后
入口
美的售后电话 4008899315
美的服务公众号-个人中心-个人中心
美居app
账号
13097713379
质保物
华凌儿童房挂机
20271219到期
华凌客卧挂机
20271209到期
美的主卧挂机
20271209到期
华凌客厅柜机
20271209到期
配网
遥控器按功能键5下,待屏显wifi闪烁,按确定键,进入配网状态
用美居app完成配网
用天猫精灵app同步设备
关闭电辅热
空调制热时,电辅热会默认的开启,如果想要关闭电辅热,可以先按下遥控器上的“功能选择”按钮,然后进入特殊功能的选择状态,按下“调整”的按钮选择到电辅热,当电辅热闪烁时,再按下“取消”按钮就可以关闭电辅热功能。
进度:已收到货
美的和华凌可以一起安装,已安装3台,差1台
已完成安装
晒单带图返50
返50*2e卡
配网完成
售后确认
问题处理
主卧空调噪声大,制热效果差
解决方案
换机,可换华凌
退机,未明确是否可退
考虑重新买格力空调或其他品牌空调
换安装位置,确认了位置不够安装
购买新风系统
远大新风f100
1799
双向风
果麦新风gm280
京东2899
噪声低
支持天猫精灵
购买空调
美的防直吹纤白
3299
华凌HE1
2149
拆机
家里人迷信,必须等农历3月才能拆机和装机
安装新风机。4.19
安装空调
窗帘
知识
离地面高度是2公分到5公分左右
有窗户则窗户底部往下20公分到30公分左右比较合适
如果家里使用扫地机器人,建议离地10公分
优选:韩褶 s型扣
窗帘千万不要银涂层那种,很快会掉,且不环保
窗帘是轨道的两倍长度
项目
购买窗帘电机+轨道 杜亚 1400
安装窗帘挡板/窗帘盒 比墙宽少1厘米
主卧 3050
客卧 2460
儿童房 窗顶很低,不需窗帘盒
大厅 已有窗帘盒
墙面不平处理
挡板固定位置,空的地方可用垫片垫平
漏光的地方用密封胶泥封住
安装轨道
双轨尺寸 双轨总宽200
手动轨宽30
电动轨宽30
外边沿各预留10
两轨间距=(200-2*10-30-30)/4*2=60
外边沿=(200-2*10-30-35)/4+10=40
大厅满墙3360,安装轨道3061
预留空调位置:空调离墙8cm,空调直径47cm
长辈房飘窗满墙2470,安装轨道长度2450
儿童房满墙2470,安装轨道2470
主人房满墙3061,安装轨道长度2910
买遮光帘+纱帘
尺寸确认
主卧
窗底沿离地500
窗帘离地200,离窗底沿300
墙有踢脚线,离地太远的话,地下有两种颜色,难看。离地2~3公分
客卧
窗帘贴飘窗安装
儿童房
窗底沿离地1170
床+床垫高500
窗帘离窗底沿330,离床约340
大厅
考虑扫地机器人 离地7~8公分
考虑扫地机器人,离地100
不考虑扫地机器人,手动扫地 离地2~3公分
纱帘 450
天丝珍珠白 原价22/m2
挂钩
单开帘
透光不透人
320g/m
大厅 天丝珍珠白
挂钩数24
帘高度2520
顶到地2600 挂钩到底2540 离地20
帘宽度6300
轨道宽度3050
主卧 天丝珍珠白
挂钩数22
帘高度2040
顶到地2120 挂钩到地2060 离地20
帘宽度6000
宽度2900
客卧 天丝珍珠白
帘宽度 5000
轨道宽2450
帘高度1550
顶到台1610 挂钩到台1550 离地0
挂钩数20
儿童房 天丝珍珠白
帘宽度 5000
轨道宽2470
帘高度1830
顶到台2280 挂钩到台2220 离台390
挂钩数20
遮光帘 757
一般35~45/m
主卧 圣菲莱 原38/平 200-20
遮光度:95%
颜色:双面麻淡粉
开帘方式:电动双开帘
帘宽度:5200
宽度2900
帘高度:2050
顶到地2120 挂钩到地2060 离地10
工艺:挂钩
克重:1200g/m
大厅 圣菲莱 原38/平 200-20
遮光度: 95%
颜色:双面麻浅灰蓝
开帘方式:电动双开帘
帘宽度:5500
轨道宽度3050
帘高度:2530
顶到地2600 挂钩到底2540 离地10
工艺:挂钩
克重:1200g/m
大厅 金蝉 原99/平 约7折 441
遮光 80%
主烟灰,配橙,配色2个褶皱
烟灰209-3+橙209-2
电动双开帘
帘宽度6300
轨道宽度3050
帘高度2520
顶到地2600 挂钩到底2540 离地20
S型钩
韩褶
挂钩数24
1000g/m
主卧金蝉 原89/平 约7折 440
遮光 95%
木槿(10#粉色)
电动双开帘
帘宽度6000
宽度2900
帘高度2040
顶到地2120 挂钩到地2060 离地20
挂钩数22
S型钩
韩褶
1100g/m
客卧 圣菲莱 原43/平 200-20 195
遮光 95
帘宽度 5000
轨道宽2450
帘高度1550
顶到台1610 挂钩到台1550 离地0
双面麻淡粉色
电动双开帘
挂钩数20
S型钩
韩褶
1200g/m
儿童房 圣菲莱 原43/平 200-20 195
遮光 95
双面麻浅蓝色
电动双开帘
帘宽度 5000
轨道宽2470
帘高度1830
顶到台2280 挂钩到台2220 离台390
挂钩数20
S型钩
韩褶
1200g/m
安装遮光帘+纱帘
配网
按设置键2秒,再按遥控器pa键两次,完成遥控器配对
按设置键8秒,进入配网模式,可用天猫精灵配网
按设置键10秒,恢复出厂设置
进度:窗帘电机已收货
已有3个插头 需再买1个
买割断管道的锯片
改轨道
买挡板
安装挡板
自行安装轨道
电动窗帘配网 1-8
收到窗帘小样 1-4
买窗帘 1-4
收到纱帘 1-11
安装纱帘 1-11
收到客卧儿童房窗帘 1-11
安装客卧儿童房窗帘 1-11
发现问题
儿童房窗帘比纱帘短了1公分
客卧窗帘短了2公分
通知金蝉把主卧客厅窗帘改长1公分 1-12
收到主卧客厅窗帘 1-18
安装主卧客厅窗帘 1-22
把客卧窗帘拿给裁缝加长1~2cm 1-23
把儿童房纱帘拿给裁缝截短1~2cm 1-23
轨道插座
雷士1米 455.5
5个插座
插座53/pcs
公牛1米 京东 769
5个插座
插座65/pcs
西门子 80cm 7个插座 2个USB 京东777 已购买
4000W 总开关 过载保护
优必克 1米京东 480
5个插座
插座39/pcs
8000W 2500W
德力西
奥多 6500W
卡西诺
大厅 0.8m 5孔座4个 323
长辈房 0.4m 5孔座2个 132
usb座1个 5孔座1个 100
需求
大厅 60
长辈房 40~60
进度:已收货 预留插座电位
已收货
预留插座电位
装柜子时安装了1个
剩余1个安装
全屋定制
定制项
入门柜
主卧衣柜带梳妆台
长辈房衣柜带书桌
儿童房衣柜带书桌
长辈房榻榻米1.2*2
儿童房榻榻米1.5*1.9
定制厂商
欧派 43000
索菲亚 40000+260
返还1500 2抽屉 减900? 888+300+300+密码抽屉
尚品宅配 36000
售后
索菲亚电话 02032199888
进度:已下单
到索菲亚拿最新收据和设计资料
12-17送货
12-18安装
买连接杆处理儿童房柜门不太稳的问题
仔细验收
修补问题1-8
还有问题
客卧衣杆太低
所有柜子和墙都要打胶
再次修补问题 1-16
客卧衣杆改高一点,已解决问题
索菲亚施工人员都建议不打胶,否则会拉裂墙体,听从建议
售后确认 1-8
绿植
绿萝 24盘
小小陈 80
富贵竹
饮水净水器
美的澎湃 MRC1878B-1000G 淘宝 1898 实付1998 已购买
无桶 零陈水 水龙头显示灯
成本 902机+3480十年滤芯
长46 宽13.2 高42
美福 2148
11-11 0:00前10名免单 优先级 B
安装免人工费
送:3人体检套餐 1年延保卡 1年只换不修
海尔零陈水
首杯水tds、脱盐率都无数据
横放 长82 宽24 高48
售后
入口
美的售后电话 4008899315
美的服务公众号-个人中心-个人中心
美居app
账号
13097713379
质保物
美的1000G净水器
20241121到期
维护
PCB滤芯
2年更换
2021/11/11
2023/11/11
298元
RO膜滤芯
5年更换
2021/11/11
2026/11/11
998元
功能
零陈水
长按机器UI界面的冲洗建3秒,开启零陈水模式
配网
用美居app扫净水器前头的二维码配网
用天猫精灵同步设备
进度:预约20号发货
交易成功后联系客服退100订金
15工作日内返回到支付宝账号(12-15)
联系客服获取礼品
3人体检套餐 没什么用
延保卡,签收后6个月内统一发,会有通知
前10名免单 客服已给链接 未得到
售后确认
燃气热水器
万和零冷水 2400
卡萨帝JSQ31-16CW3(12T)U1 京东 4199
水伺服器
旁路混水
智能家居
付尾款时间 11-10 20:00 ~ 11-12 0:00 优先级C
能率16L G31 淘宝3749 已购买
送天猫精灵 刀架消毒机
11-11 0:00开卖 优先级C
安装免人工费
50分贝
售后
三年免费保修
每年免费安检(需预约)
入口
售后电话4009881998
安装日期20211120
配网
关机状态下按wifi按键3秒,直到wifi灯闪烁
用天猫精灵找队友配网
进度:已收货 已安装
安装花费270元,退40元,最终230元
通气确认安装无误
12-12发出赠品
售后确认
冰箱
容声 70.04 3700
美的BCD-426WTZM(E) 京东3698-500E卡
PST19分钟急速净味
宽713 厚731 高1808
双循环 美居控制
售后
整机期限2023-1-9,零部件保修期限2028-1-8
入口 美的服务公众号
配网
先解锁再按?键进入配网状态
进度:已收货 未安装
3年延保联系客服获取
前100名返500E卡 下单后16工作日(11-23)在冰箱冷柜专区查看
已确认获得E卡,已登记
等待E卡发放到京东账户,发放时间12-8前
联系售后安装 1-4
安装1-8
售后确认 1-8
洗衣机
美的 3000
海尔XHG13L996PU1 淘宝7099 已购买
热泵烘干
送电饭煲或吸尘器或100元
嗮图送整机10年延保
安装高度要求高1000 宽600 长600
厂家售后
整机3年 到20241230
客服反馈以安装日期开始算
非官网购买 保修卡需要有发票才能激活
入口
海尔售后电话 4006999999
海尔智家app-服务-我的家电
海尔日日顺乐家售后
厂家保质期完后3年
服务卡号HRDB330055A
入口
售后电话4008315315
公众号日日顺乐家
期限20241229-20271229
配网
清洗模式
除菌洗: 在这个档位下一般会将水温加热至60度(55度即可杀灭螨虫和细菌,有的品牌也称之为除螨洗),这个模式下适合毛巾、床单、被套的洗涤。
大件: 主要在单个方向的转动,有更长的时间,一般用在窗帘等大件洗涤物的清洗。
羊毛、羽绒服: 在洗涤的过程中减少转动和水温,一些带烘干功能的洗衣机在这个模式下不会有烘干的流程。
婴儿服: 虽没用过,但知道其原理: 漂洗多了一次,以减少洗衣剂的残留。
快洗: 一般设置15分钟即可洗涤。适合夏季换洗的衣服的清洗。
护色: 没有将水加温至40度的过程。护色的意思是说,40度温度下一些衣物会出现褪色问题。
智能洗: 洗涤前会称一下衣服的重量,然后根据重量决定水量和洗涤时间。
浸泡洗: 洗涤前,会浸泡一段时间。适合贴身衣物的洗涤。
进度 已购买 发货可能要到下月
收货
安装到生活阳台20211219
晒图找客服领延保卡
获取发票
激活保修卡
获取产品序列号
日日顺激活延保卡 12-31
售后确认
洗衣机问题已整改,是漏水问题
空气净化器
华为720-C400 京东 799
颗粒物CADR 400 甲醛CADR 120 32~66db 深紫外UVC 负离子
固体CCM 12000 气体CCM 1500
352-x86c 京东 3799
AO史密斯TF008(380B-FT) 淘宝3296 已购买
11-11 0:00 前10名净化器 前100名蒸汽拖把 优先级A+
送毛巾套装 全套滤芯
10000气态CCM 34000固态CCM 天猫精灵
成本 2726机 +5720十年滤芯
售后
入口
联系淘宝客服
质保2年
购买日期20211111
维护
主滤芯
价格
一般价格
518
2022双11
440
寿命
一般一年一换
开的频繁,环境差会更频繁
初滤芯
寿命
一般一年一换
开的频繁,环境差会更频繁
一般价格
118
配网
关机状态下长按3秒,直到logo闪
天猫精灵喊'找队友'
进度:已发货到北滘 已收货
18号公布名单,前10净化器,前100蒸汽拖把,联系客服获取名单
得到蒸汽拖把
收到滤芯 蒸汽拖把 未收到毛巾套装
售后确认
知识
茶叶和柚子皮的效果约等于没有;绿萝的枝叶虽能吸收一点点甲醛,但最大的功臣其实是盆里的土;活性炭对甲醛的吸附主要是物理吸附,并不稳定;(是吸附,不是吸收!!甲醛容易进去也容易出来,气温升高的时候活性炭更容易hold不住所吸附的甲醛)空气净化器短时间内净化甲醛的效果最佳。
传感器
人体传感器
海曼 49
配网
参数
人体传感器60s才扫描一次,测试状态下随时
90度探测
探测距离 9m
知识
它感应的不是人体,而是人体的移动
如果人体发出的红外线被玻璃、浴帘等材质阻挡,或者环境温度和人体体温非常接近,人体传感器依然可能发生探测不到人体的情况
安装高度以1.2米到2.5米为宜,低于1.5米会导致水平方向的探测范围变小,高于2.5米会导致传感器下方盲区过大
不要正对暖气片、暖风机、白炽灯等一切温度可能接近人体体温的物体
一般情况下,房间内人体传感器要避免正对门口,以免被房间外经过的人体误触发
安装参考 https://zhuanlan.zhihu.com/p/44114143
人体传感器其实不仅可以感应到人和动物,其实其他会移动的物体也会触发,比如阳台上的衣服,风吹动的窗帘等:海曼客服表示海曼的产品不会错报的
这个是监测移动的红外源,对于静止或移动极慢的红外源不动作是正常现象。因为任何物体都会发射红外线,除非绝对0度(-273.15C)
温湿度传感器
海曼 49
配网
参数
温度 -10~50摄氏度
湿度10~95RH无凝结
知识
温湿度计尽量摆在经常活动位置的附近会比较精准,放在角落可能跟体感差别较大。
门磁传感器
海曼 49
配网
参数
探测距离 20mm
门铃
按呗
配网
空气检测仪
水质检测仪
烟雾传感器
交房自带
智能音箱
大厅
天猫精灵cc8 399
小美智能音箱
配网
长按配网按键,进入配网模式
用美居app完成配网
小爱同学
主卧
天猫精灵方糖
小爱同学
儿童房
天猫精灵方糖
长辈房
天猫精灵方糖r
生活阳台
天猫精灵方糖
吸尘器
小狗t12 2400 不好用已退货
185aw
追觅v16 带扫拖把 带架子 2750
230aw
售后
入口
电话 4008759511
2年质保
30天质量问题退货
180天质量问题换货
收货日期20211221
进度
退小狗,收到主机退款
买追觅
收到追觅v16
售后确认
5星好评 12-31
联系客服领取50元红包 1-5
申请价格保护,申请吹风机赠品
3-5天收50红包
收到吹风机赠品
电视柜
参数
需要能进机器人,10cm以上
要考虑踢脚线
灰色
考虑能进电梯 2200较优
进度
买了2200*400 1322
收货
安装
买电视柜保护垫
茶几
林氏木业
全友
林氏一套茶几电视柜 3700
参数
茶几距离沙发40~45cm
1200*600较优
灰色
进度
买了 1200*600 1000
收货
安装
评价可领取20元奖励 12-31
买茶几保护垫
餐桌
选择
灰色岩板
黑色外开细脚
尺寸 1400*800
进度
已收货
缺桌脚,待补发
已安装
餐椅
全友
林氏木业
进度
购买了1把餐椅
收货
补齐购买4把
收货 12-31
安装12-31
挂照片
进度
购买膨胀钉
所有需要挂的照片准备好 1-3
确认少量安装 2~3张
确认照片位置 1-19
自攻钉钻孔,自己动手 1-19
主人房床+床头柜
泡沫小敏卫斯理 4450
樱桃+白橡木
声音去除
床板背面放置胶垫
小半家具龙猫 5200
樱桃+白橡木
床头柜
用保险箱做床头柜
进度
买了泡沫小敏卫斯理中古床 5350-955
1月10号发货
收货 1-13
安装 1-15
看是否有必要安装床头柜
暂不需要
返还955元差价
收到补发的板子
年后修复床的问题
防撞贴贴床后面
床垫
项目
主人房 1.8*2
弹簧床垫
较好配置
独立袋装弹簧 不选弹簧架 (可以9区弹簧)
弹簧圈数越多越好 5圈是下限
弹簧越小越密越好
有开口拉链 可以看到里面的材质
棕垫要能容易撕开的
乳胶厚度2~3cm就好
选免费试睡3个月 5年免费更换的
贴合要用热熔胶 比较环保
不能买合成乳胶床垫 有毒
测试
看 床垫是否平整 外观好 检验标志
压 看各个位置的支撑性是否比较一致
听 蹦跳时无异响
各个姿势试睡 都比较舒服就好
打开拉链 看里面的材料
闻起来不刺鼻
要 质检报告
在一边弹跳 看另一边的影响
选择
床板高25cm
斯林百兰 约克王朝 2000+
乳胶1cm
弹簧7圈 丝径1.98
静音 抗干扰
斯林百兰 泰晤士河畔 6000
7分区
30cm
斯林百兰 兰梦 5000
独立袋装
雅兰 皇家花园 3000
福利袋装
软硬两面
雅兰 深睡 2500
独立袋装
长辈房 1.8*2
京东 金像树 乳胶垫 5cm530元
儿童房 1.5*1.9
京东 金像树 乳胶垫 5cm 650元
厂商
香港海马
金海马
舒达
妙而扣
进度
购买儿童房床垫
购买客卧床垫
购买主卧床垫 1-8
收到主卧床垫 1-12
评价收50红包 1-15
沙发
商品
顾家
斯可馨
左右
芝华士
联邦
G195 3.2米 左贵妃 9500
黑色脚
外开细脚
售后
质保期限 2023-1-8
入口
电话4008899688
进度
已下单 已付订金3000
沙发已做好可交付 12-28
交6500余款 1-5
安装 1-8
售后确认
问题:贵妃位有损
发回厂家换皮:年后 0215
确认问题解决 0219
地毯
风格
通铺
压边
居中
项目
客厅 3.2*1.8 淘宝80
贵妃位全压 长3 宽2
贵妃位半压 长3 宽2 月月喜欢这样
不引导坐沙发沿
主卧
待安装床后确认是否需要
地毯甲醛含量高,主卧不需要地毯
户外
用买客厅地毯送的地垫
入户
1.57*1.25
进度
买客厅地毯
安装客厅地毯
安装户外地垫
买入户地垫
收到入户地垫
安装入户地垫
问题:地毯太厚,无法开门
裁剪继续使用
房间椅子
进度
买了2把 400
收货 12-31
安装12-31
1把有问题,重新发货
重新安装 1-8
炊具
炒锅
知识
推荐 https://www.zhihu.com/question/19667849
材质
生铁(铸铁) 含碳量3%左右的铁
脆
适合火力不大的情况下烹饪用,例如煤炭、柴火灶等
铸铁锅的导热性能一般,温度不易把控;比热容太大,会存储过多热量;锅体厚重,不适合女性;不耐腐蚀,会生锈,会粘锅。
熟铁锅 是由碳含量比较低的黑铁皮锻打而成
比生铁锅导热更快,不会存储多余热量,锅体比较轻薄,炒菜有锅气,非常适合中式爆炒
容易生锈,买回来需要一定的时间养锅,养好之前不适合用来炖煮或者做酸性食材。
熟铁锅虽然也容易生锈,但是其导热性还不错,比热容也较低,养护相对简单,反而是所有材质中最合适用来做炒锅的材质
316不锈钢 304不建议
颜值担当,耐磨损,耐腐蚀,不会生锈,材质健康。
比热大,会存储多余热量,导热慢,极易粘锅,可能底部烧糊了,边上还没热,所以纯不锈钢锅不适合用来制作炒锅炒菜。
很多不锈钢锅为了避免材质缺陷导致的粘锅问题,会加入鱼鳞纹设计,号称不粘,其实不粘效果是有一点,但也不是特别好,而且用久了纹路之间都是黑色的杂物,很难清理
导热差,比热又高,容易糊锅,不适合用来做炒锅,适合炖煮
钛锅的材料是钛钢,也就是316不锈钢
铜锅
耐腐蚀,非常难养,一个不注意养护就容易生锈、氧化、腐蚀。
一般家庭不推荐
铜锅确实是非常好的炒锅材质,不仅导热速度快,而且也不会存储过多热量,就是太难养护,一般家庭不做首要炒锅考虑;
铝锅
导热性能也非常好,蓄热性也非常强,而且质量比较轻,如果作为炒锅,性能也比较优秀。
也是不耐腐蚀,容易氧化。
铝锅重量轻,导热性非常好,但同时比热又太大,还不耐腐蚀,同样不适合用来做炒锅,适合用来做火锅
涂层不粘锅
不粘锅就是在锅内部涂上了一层特氟龙或者做上其他材料达到不粘的效果,这也是唯一的优点
不管它涂的是什么涂层,它们都有一个共同的缺点,就是不耐用,涂层锅用来炒菜,大概半年到一年。涂层脱落了就失去了不粘的效果,而且也不健康,需要立马扔掉换新
涂层不粘锅虽然不粘,但是是消耗品,需要每年换新,只适合新手入门使用一段时间;
复合型合金锅
理论上说较好,贵
多层材料,外层用不锈钢,中间层用铝或铜导热
蜂窝不粘锅是营销骗局,还是有涂层,有纹理更不容易清洁
材质总结
铁锅适合一般炒菜,要注意保养
非纹理复合型合金锅适合炒酸菜、煮、蒸
尺寸
35cm以上就比较好用了,适合两代同堂的家庭,家里来客人时能轻松应付
32cm~35cm就适合普通的三口之家使用
32cm以下只适合单身或者情侣同居使用
重量
炒锅重量最好不要超过1.5kg
烹饪
热油方式
热锅热油
锅烧热后放油,油热后放原料这种情况适合爆炒,也是家里做菜最常用的方式,这样炒出的菜会比较好吃。比如炒青菜,热锅冷油爆香大蒜,油热后放入青菜,急火快炒。需要注意的是,在做辣椒炒肉时,放肉的油温不宜过高,以免高温使原料粘在一起,油温过低又会让肉留下油腥味。
热锅冷油
锅烧热后放油,接着放原料这种情况适合爆香葱姜蒜、豆瓣酱、花椒等香料,这样有助于爆出香料的香味,如果油热时放入香料,高温容易把香料炸焦黑。比如自制火锅底料,先放葱姜爆香,放豆瓣酱炒出红油,整个过程控制在中火,火不宜太大
冷锅热油
不热锅直接放油,油热后放原料适用于油炸,油炸食品没必要热锅,锅太热反而会产生油烟,冷锅放油后,到了温度再放食材。比如做糖醋里脊,炸里脊的时候先冷锅下油,油热后放入腌制好的里脊肉
冷锅冷油
不热锅放油,接着放原料这种情况比较少,一般用来炒孜然这些容易糊掉的香料。
润锅
炒菜之前先放油把锅润一遍烧到冒烟以后再倒回油壶,这个时候整个锅都是热的均匀的。
翻炒
在专业灶台上翻锅是不用把锅端起来的,而是在灶沿上拖动,用巧劲配合炒勺的推动,让锅里的菜翻起来。
家庭操作就不一样。家里的燃气灶没有灶沿让你借力。翻炒只能用带柄的熟铁锅,轻,好翻。
熟铁锅轻薄,升温快,三十块钱的机制熟铁锅开火五秒钟锅底残留的水分就开始沸腾蒸发。但家庭灶火力不够,大份食材一下去锅就凉了,锅气出不来,爆炒变成半煮半炒
熟铁锅适合家庭灶台小分量炒,不至于下锅就凉。适用场景:单身狗,小两口。对厚一点的菜可以先飞水。新手要注意火候把控,防止冒烟糊锅。
三四口人以上找铸铁锅,储热多,不会下锅就凉
飞水
飞水在厨师行业中又称为水锅、出水、焯水,主要是指通过水这个媒介物对原材料进行热处理的一种方法,生活厨房中的大部分原料以及带有血渍的都可以进行飞水处理。
飞水的形式通常有两种,一种是开水锅飞水;另一种是冷水锅飞水。原则是蔬菜类用开水,肉类用冷水。
保养
粘锅是使用方法不当,生锈是保养方法不当。炊具不背这个锅
不要用养好的铁锅做酸辣汤和番茄牛肉,直接打回原形
没养成纯黑色不建议用洗涤剂
发黄是变黑的基础,请给他点时间
一般来说正确使用十次才会形成牢固不沾的油膜,而原则上旧铁锅只要不变形都会比新锅更好用
养好的铁锅并不是完全不沾,就算到了后期也只有不粘锅八成的功力
熟铁圆底炒锅 适合一般炒菜用
优选
需求 33寸 无钉 熟铁 有开锅服务 圆底
陈枝技 33厘米 带开锅服务 122
开锅服务没什么用,还是自己开比较划算
不锈钢平底炒锅 煮、蒸及炒酸菜
德国赫巴兹34厘米316不锈钢锅 锅盖 蒸笼 286
电饭煲
用已有的美的电饭煲
砧板
京东京造 乌檀木 89
魔飞砧板刀架 17000招行信用卡积分
厨刀
十八子作 菜刀
魔飞 生菜、熟菜、水果刀
网络
宽带
了解
物业反馈可选择电信 移动 联通
需求 公网ip 访问国外服务器
技巧
节日安装有优惠
不去官方购买 找代理商有优惠
报价
移动 30/月 300M 无公网ip 不可访问国外
电信 1290/年 300M 申请公网ip 申请访问国外 200报装费
联通 1100/年 300M 申请公网ip 申请访问国外
联通90/月 500M
30G 1000分钟
免费2副卡
微信 '佛山宽带 500M 98'
联通68/月 200M
600元预存话费
100分钟全国通话,20G全国通用流量+腾讯所有软件免流量
微信 '佛山宽带 500M 98'
微信说250安装费 网上说200
http://www.bdasw.com/
联通 59/月 100M
250报装费
微信 三水宽带
联通100M 600/Y 1080/2Y
200报装
0757-22612243
https://www.fs10000.net/
未确认
联通天王卡宽带 200M 59/月
800分钟
199安装费 微信说250
199元的光猫不带wifi 250元的光猫带wifi
腾讯专属流量
流量1元800MB
新办天王卡
确认可选
微信'宽带报装 59 200'
http://www.fs-10010.com/
联通1000M 59/月
1000分钟
60G流量
微信'锈~'
http://fsnachuang.com/
仅限携号转网 要3个月才可携转
联通王卡宽带 200M 58/月
100分钟
199安装费 微信说250
250安装费 完成后返还50红包
光猫带wifi
腾讯专属流量
流量20G通用
新办王卡
确认可选
微信'宽带报装 59 200
http://www.fs-10010.com/
实际选用
套餐
200M宽带
每月上旬赠送10元话费,不清楚什么时候结束
每月交19+39+10话费,实际使用68-10=58元
29元腾讯王卡
国内接听免费,无漫游费
30G腾讯系专属流量
19元按日计算,10元固定
39元5G版超级会员(黄金版)
20G国内通用流量
腾讯视频VIP/QQ音乐VIP/100分钟语音
网络部署
有线链路
光猫
AP 新路由3
玄关
树莓派
大厅
AP 小米cr6608
电视
主卧
儿童房
AP 斐讯k2路由器(后续换为极路由3p千兆路由)
工作站
无线链路
光猫
NAT 新路由3
AP wifi 小米cr6608
大厅+主阳台
带屏天猫精灵
晾衣架
无wifi,有蓝牙
门锁传感器
人体传感器
温湿度传感器
玄关
天猫精灵
门铃
主卧
主卧灯
空净
天猫精灵
主卧过道灯
有蓝牙,无wifi
温湿度传感器
人体传感器
空调
电动窗帘
客卧
空调
灯
天猫精灵
电动窗帘
笔记本电脑1
笔记本电脑2
手机1
AP 斐讯k2
儿童房
台式电脑
平版电脑
手机2
空调
灯
天猫精灵
电动窗帘
大厅
空调
灯
电动窗帘
厨房
冰箱
净水器
生活阳台
洗衣机
热水器
天猫精灵
路由器优化
各种固件介绍 http://www.360doc.com/content/12/0121/07/4310958_977207366.shtml
老毛子固件 可用trojan
官方发布 https://t.me/s/pdcn1
hiboy https://opt.cn2qq.com/padavan/
新路由3刷机 https://www.acwifi.net/5603.html
trojan设置教程 https://brazil-fight.ru/watch/Padavan%E8%80%81%E6%AF%9B%E5%AD%90%E5%9B%BA%E4%BB%B6%E8%B7%AF%E7%94%B1%E5%99%A8trojan%E6%95%99%E7%A8%8B/
trojan配置:vray页面设置trojan://ff5***67@tj.jarxi.com:443#test
版本
带DRV版本使用的mtk泄露的无线驱动,256,512是给改了内存成256M和512M的机子用,还有V5这个是指用了最新的无线驱动版本
最后其实也就一句话,路由器固件还是要自己刷机试用,是和自己的相对稳定的就可以了,毕竟各家路由器的官方固件还有七七八八的毛病呢
网友反馈:K2P_DRV_V5最好。这个版本的驱动稳定性极强,打王者LOL基本延迟稳40ms以下。像K2P_V5_3.4.3.9-099固件玩游戏容易掉ping。每隔30分钟跳ping到300ms。而且明显距离远,信号弱的时候刷视频很卡。还是带drv的牛
padavan一共4种我都刷过,体验区别很大。不带drv的看视频都会断流
高恪固件 评价比老毛子稳定
官方论坛 http://www.gocloud.cn/bbs/
稳定版固件下载 http://www.nihaodd.com/down/100.php
https://lanzoui.com/s/52019646
路由器硬件
新路由3
32M+512M
固件集合 https://www.right.com.cn/forum/thread-658359-1-4.html
刷老毛子 https://www.acwifi.net/5603.html
高恪详细刷机教程 https://3cmag.com/news/27940/
网盘 “分享-新路由3刷breed和高恪固件教程”
k2p路由器
计划刷老毛子固件,K2P_DRV_V5固件
刷机参考 https://www.upantool.com/sense/luyouqi/12428.html
智博通7620N单频路由器
可刷固件
RT-N14U-GPIO-1-ailuyoui1-64M_3.4.3.9-099
7620N 8M 64M
k2路由器
有线百兆+无线千兆
8M+64M
可刷固件
k2支持的最后一版固件 https://www.right.com.cn/forum/thread-4132251-1-1.html高恪 4.3.0.15940比较稳定,高恪首推
老毛子 选PSG1218 http://opt.cn2qq.com/padavan/
开启低调上网后内存溢出,只应当普通路由器
高恪纯ap固件4.3.0.17204
使用体验还不错,配合新路由3高恪固件主路由使用
极路由3pro
有线千兆+无线千兆
仅可使用极路由本身的固件
cr6608
配置
有线千兆+无线千兆
128M+256M
wifi6
固件下载地址 http://tanswu.f3322.net:5888/
immortalwrt
功能和稳定性可接受
从路由器卖家处获得固件
问题:wan口经常获取不到ip地址,20%出现概率
hiboy老毛子
无线稳定性不错
出现一次密码报错,不可恢复的问题
c大老毛子
推荐,稳定性较好 https://www.right.com.cn/forum/thread-4117591-1-1.html
京东雅典娜
wifi6
128G
测试
测速
外网测速 https://www.bandwidthplace.com/
内网测速 https://www.speedtest.cn/
speedtest命令
wget --no-check-certificate -q -T10 -O speedtest.tgz https://install.speedtest.net/app/cli/ookla-speedtest-1.1.1-linux-aarch64.tgz
mkdir -p speedtest-cli && tar zxf speedtest.tgz -C ./speedtest-cli && chmod +x ./speedtest-cli/speedtest && rm -f speedtest.tgz
speedtest --progress=no --server-id=24447 --accept-license --accept-gdpr
vi speedtest.sh
#!/bin/bash if [ ! -n "$id" ]; then id=24447 fi if [ "$id" = "help" ]; then echo "speed_test '21541' 'Los Angeles, US' speed_test '43860' 'Dallas, US' speed_test '40879' 'Montreal, CA' speed_test '24215' 'Paris, FR' speed_test '28922' 'Amsterdam, NL' speed_test '24447' 'Shanghai, CN' speed_test '26352' 'Nanjing, CN' speed_test '27594' 'Guangzhou, CN' speed_test '32155' 'Hongkong, CN' speed_test '6527' 'Seoul, KR' speed_test '25960' 'Singapore, SG' speed_test '15047' 'Tokyo, JP'" exit 0 fi ./.speedtest --progress=no --server-id=$id --accept-license --accept-gdpr
下载测速
axel -n 20 http://mirrors.nju.edu.cn/centos/7.9.2009/isos/x86_64/CentOS-7-x86_64-Minimal-2009.iso -o /tmp/testfile rm /tmp/testfile
链路测试 traceroute -n -T -p 80 jarxi.com
通达测试 nc -vz jarxi.com 80
扫描端口
nmap -p1-65535 192.168.122.132
pi htpc部署
参考
https://linux.cn/article-4092-1.html
磁盘限速
因为每次都是大量读写磁盘时死机,考虑通过限制磁盘带宽来减少死机情况
速度检测 https://cloud.tencent.com/developer/article/1861917?from=15425
带宽限速 https://cloud.tencent.com/developer/article/1874709?from=15425
https://blog.csdn.net/weixin_42339759/article/details/116734035
系统测试和调优 https://www.haopython.com/home/923/
计划
docker容器 宿主
http文件服务器 宿主
aria2离线下载 容器aria2
samba文件共享 宿主
mysql共享数据库 宿主
redis共享数据库 宿主
BaiduNetdisk 容器openwrt
DLNA流媒体 宿主
apt install minidlan
gogs git服务器 云服务器
svn服务器 云服务器
wordpress 云服务器
scrapy爬虫 容器scrapy
hass 容器ha
宿主机
树莓派64位系统 https://github.com/openfans-community-offical/Debian-Pi-Aarch64/blob/master/README_zh.md
ubuntu系统 https://ubuntu.com/download/raspberry-pi
树莓派使用usb启动 https://cloud-atlas.readthedocs.io/zh_CN/latest/arm/raspberry_pi/storage/usb_boot_ubuntu_pi_4.html#usb-boot-ubuntu-pi-4
先把树莓派系统写入tf卡中,然后设置usb启动系统,再把ubuntu server系统写入到ssd移动硬盘中 https://cloud-atlas.readthedocs.io/zh_CN/latest/arm/raspberry_pi/storage/usb_boot_pi_3.html
https://www.jianshu.com/p/2ed5f1c6367b
openwrt旁路由
刷openwrt https://rongtianjie.me/archives/207
openwrt docker镜像 https://hub.docker.com/r/sulinggg/openwrt
https://mlapp.cn/376.html
计划
刷 debian
系统用SD卡,存储用ssd移动硬盘
tf卡性能弱,u盘性能同样弱,树莓派3b只有usb2.0,ssd移动硬盘基本匹配了性能
需要翻墙的主机,把网关和dns设置为树莓派的ip地址
后期系统盘用ssd,数据盘用机械盘,用一个硬盘盒管理,放电视柜,暂不做
知识
为了降低成本,树莓派省去了传统计算机用来存储引导加载程序的板载存储器(BIOS), 直接把引导程序放在了SD卡中。
树莓派3b需要用2A的电源,不然经常死机
关于网速的问题,旁路由模式只有上传流量经过旁路由,下载流量是直接到客户机的,理论上百兆网口旁路由可以实现千兆的效果
高恪开启sfe快速转发之后,带宽提升非常明显,路径【系统管理】【系统设置】【WEB界面参数】,新3开启前跑170M/s,开启后跑250M/s
askfirst占用cpu过高问题
vi /etc/inittab
::sysinit:/etc/init.d/rcS S boot ::shutdown:/etc/init.d/rcS K shutdown ttyAMA0::askfirst:/usr/libexec/login.sh ttyS0::askfirst:/usr/libexec/login.sh hvc0::askfirst:/usr/libexec/login.sh
把带askfirst的三行全删除,变成
::sysinit:/etc/init.d/rcS S boot ::shutdown:/etc/init.d/rcS K shutdown
没有bash,冒充bash方法
vi /bin/bash
#!/bin/sh sh
基础系统部署,参考https://hub.docker.com/r/buddyfly/openwrt-aarch64
准备tf卡,tf卡读卡器
DiskGenius先把tf卡格式化为fat32格式,设置为单活动分区
etcher刷写树莓派64位系统无桌面基础系统加强版
tf卡放入树莓派,上电,等待5分钟初始化完成
树莓派连接路由器lan口,从路由器获得树莓派的ip地址
ssh登录树莓派,用户名pi,密码raspberry
内核升级到最新版本
允许root登录, vi /etc/ssh/sshd_config
PermitRootLogin yes
复制pi的主题 cd /root/; cp /home/pi/.bashrc .
打开网卡混杂模式 ip link set eth0 promisc on
可把打开命令写到/etc/rc.local中
创建网络 docker network create -d macvlan --subnet=192.168.122.0/24 --gateway=192.168.122.1 -o parent=eth0 macnet,查看docker network ls
清除网络 docker network rm macnet
拉取镜像docker pull unifreq/openwrt-aarch64
这个更佳 docker pull buddyfly/openwrt-aarch64
启动镜像 docker run --restart always -d --name=openwrt1 --network macnet --privileged unifreq/openwrt-aarch64 /sbin/init,清理命令docker stop openwrt; docker container prune
docker run --name openwrt --restart always -d --network macnet --ip=192.168.122.5 --privileged -v /data:/data -v /etc/timezone:/etc/timezone:ro -v /etc/localtime:/etc/localtime:ro buddyfly/openwrt-aarch64
进入镜像修改配置 docker exec -it openwrt bash
docker exec -it openwrt sh
修改网络配置 vim /etc/config/network,设置为静态地址,关闭桥接和dhcp
简化 设置为dhcp客户端,关闭桥接
更新镜像 docker run --rm -v /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --cleanup --run-once openwrt
ftp目录设置为永久保存目录
vi /etc/rc.local
rm /tmp/upload -rf; ln -s /data/upload /tmp/upload
代码自动补全
apt install bash-completion
宝塔虚拟机
稳定性很差,不再考虑
docker ubuntu
docker run --name ubuntu --restart always -dit --network macnet --privileged --ip=192.168.122.9 -v /data:/data ubuntu
docker-compose运行
vi docker-compose.yml
version: '3' services: ubuntu: image: ubuntu container_name: ubuntu tty: true restart: always privileged: true environment: TZ: Asia/Shanghai volumes: - /data:/data networks: macnet: ipv4_address: 192.168.122.9 networks: macnet: external: true
docker-compose up -d; start; stop; down
sshd
apt install openssh-server
创建运行目录
mkdir /run/sshd
允许root登录,vi /etc/ssh/sshd_config
PermitRootLogin yes
配置开机启动,vi ~/.bashrc
/usr/sbin/sshd
支持中文
vi ~/.bashrc
export LC_ALL="C.UTF-8"
apt-get update ; apt-get upgrade
apt-get install -y language-pack-zh-hans
locale-gen zh_CN.UTF-8
部署步骤
docker run --name ubuntu --restart always -dit --network macnet --privileged --ip=192.168.122.9 -v /data:/data ubuntu 基础配置 apt update apt install -y unrar unzip vim nano wget curl axel nload netcat-traditional net-tools tzdata busybox inetutils-ping language-pack-zh-hans ln -sf /usr/share/zoneinfo/Asia/Shanghai /etc/localtime echo "export LC_ALL=\"C.UTF-8\"" >>~/.bashrc echo "/data/bin/toGoogle.sh" >> ~/.bashrc echo "export PATH=/root:/data/bin:/data/bin/ccache:\$PATH" >> ~/.bashrc nodejs安装 cd /data/programs wget https://nodejs.org/download/release/v17.9.0/node-v17.9.0-linux-arm64.tar.gz tar -xf node-v17.9.0-linux-arm64.tar.gz cd node-v17.9.0-linux-arm64/bin/ ./node -v ln -s /data/programs/node-v17.9.0-linux-arm64/bin/node /usr/local/bin/node ln -s /data/programs/node-v17.9.0-linux-arm64/bin/npm /usr/local/bin/npm npm install --global yarn ln -s /data/programs/node-v17.9.0-linux-arm64/bin/yarn /usr/local/bin/yarn python安装 apt-get install python3.8 update-alternatives --install /usr/bin/python python /usr/bin/python3.8 1 update-alternatives --install /usr/bin/python3 python3 /usr/bin/python3.8 1 (删除命令 update-alternatives --remove python3 /usr/bin/python3.6 update-alternatives --remove python /usr/bin/python3.6) apt-get install python3-setuptools python3-pip -y pip3 install --upgrade pip 嵌入式环境安装 apt install -y ccache git tig make cmake gcc g++ lnav ccache -M 512M
docker centos
docker运行
docker run --name centos --restart always -dit --network macnet --privileged --ip=192.168.122.10 -v /data:/data -v /etc/timezone:/etc/timezone:ro -v /etc/localtime:/etc/localtime:ro centos:7
docker-compose运行
vi docker-compose.yml
version: '3' services: centos: image: centos:7 container_name: centos tty: true restart: always privileged: true environment: TZ: Asia/Shanghai volumes: - /data:/data networks: macnet: ipv4_address: 192.168.122.10 networks: macnet: external: true
docker-compose up -d; start; stop; down
错误处理办法:bash: warning: setlocale: LC_CTYPE
localedef -i en_US -f UTF-8 en_US.UTF-8
localedef -i zh_US -f UTF-8 zh_US.UTF-8
安装pip
curl https://bootstrap.pypa.io/pip/2.7/get-pip.py -o get-pip.py
python get-pip.py
docker debian
vi docker-compose.yml
version: '3' services: debian: image: debian container_name: debian tty: true restart: always privileged: true environment: TZ: Asia/Shanghai volumes: - /data:/data networks: macnet: ipv4_address: 192.168.122.11 networks: macnet: external: true
dlna,似乎作用不大
apt install minidlna
支持的类型
Image JPEG PNG, GIF, TIFF
Audio LPCM AAC, AC-3, ATRAC 3plus, MP3, WMA9
AV MPEG2 MPEG-1,MPEG-4*, AVC, WMV9
/etc/minidlna.conf
media_dir=A,/data/media/music
media_dir=P,/data/media/picture
media_dir=V,/data/media/video
friendly_name=pi
inotify=yes
docker aria2下载机
部署
docker
docker run -d --name aria2 --restart on-failure:3 --network macnet --privileged -v /data:/data -v /data/docker/aria2/app:/app -v /etc/timezone:/etc/timezone:ro -v /etc/localtime:/etc/localtime:ro --ip=192.168.122.6 -e "ENABLE_RCLONE=false" wahyd4/aria2-ui
第一次启动要不挂载/app,并且拷贝一份
docker-compose
vi docker-compose.yml
version: '3' services: aria2: image: wahyd4/aria2-ui container_name: aria2 tty: true restart: always privileged: true environment: ENABLE_RCLONE: false volumes: - /data:/data - /data/docker/aria2/app:/app - /etc/timezone:/etc/timezone - /etc/localtime:/etc/localtime networks: macnet: ipv4_address: 192.168.122.6 networks: macnet: external: true
files的默认密码 admin, admin
加速
参考
https://github.com/wahyd4/aria2-ariang-docker/blob/master/README.CN.md
https://p3terx.com/archives/solved-aria2-cant-download-magnetic-link-bt-seed-and-slow-speed.html
https://zhuanlan.zhihu.com/p/265105814
https://www.jiyiblog.com/archives/031995.html
优化
配置
开放端口
vi /app/conf/aria2.conf
rpc默认端口6800
路由器开放端口映射
端口映射6800
bt-tracker替换成
https://trackerslist.com/all_aria2.txt
启用DHT,vi /app/conf/aria2.conf
# DHT(IPv4)文件 dht-file-path=/root/.aria2/dht.dat # DHT(IPv6)文件 dht-file-path6=/root/.aria2/dht6.dat # 打开DHT功能, PT需要禁用, 默认:true enable-dht=true # 打开IPv6 DHT功能, PT需要禁用 enable-dht6=true # DHT网络监听端口, 默认:6881-6999 dht-listen-port=6881-6999 # 本地节点查找, PT需要禁用, 默认:false bt-enable-lpd=true # 种子交换, PT需要禁用, 默认:true enable-peer-exchange=true
DHT文件需要手动创建
此时,只要找几个热门种子下载,下载后做种几个小时,你会发现 dht.dat 从空文件变成有数据了
总体配置文件 aria2.conf
#用户名 #rpc-user=user #密码 #rpc-passwd=passwd #上面的认证方式不建议使用,建议使用下面的token方式 #设置加密的密钥 #rpc-secret=token #允许rpc enable-rpc=true #允许所有来源, web界面跨域权限需要 rpc-allow-origin-all=true #允许外部访问,false的话只监听本地端口 rpc-listen-all=true #RPC端口, 仅当默认端口被占用时修改 #rpc-listen-port=6800 #最大同时下载数(任务数), 路由建议值: 3 max-concurrent-downloads=4 #种子最小分享率 seed-ratio=100.0 #做种时间 seed-time=30 #断点续传 continue=true #同服务器连接数 max-connection-per-server=5 #最小文件分片大小, 下载线程数上限取决于能分出多少片, 对于小文件重要 min-split-size=10M #单文件最大线程数, 路由建议值: 5 split=10 #下载速度限制 max-overall-download-limit=0 #单文件速度限制 max-download-limit=0 #上传速度限制 max-overall-upload-limit=0 #单文件速度限制 max-upload-limit=0 #断开速度过慢的连接 #lowest-speed-limit=0 #验证用,需要1.16.1之后的release版本 #referer=* #文件保存路径, 默认为当前启动位置 # dir=/user-files/superuser/ dir=/data/download #文件缓存, 使用内置的文件缓存, 如果你不相信Linux内核文件缓存和磁盘内置缓存时使用, 需要1.16及以上版本 #disk-cache=32M #另一种Linux文件缓存方式, 使用前确保您使用的内核支持此选项, 需要1.15及以上版本(?) #enable-mmap=true #文件预分配, 能有效降低文件碎片, 提高磁盘性能. 缺点是预分配时间较长 #所需时间 none < falloc ? trunc « prealloc, falloc和trunc需要文件系统和内核支持 #SSD不需要整理碎片 file-allocation=none # disable IPV6 by default disable-ipv6=true # General Options log=/var/log/aria2.log #You can set either debug, info, notice, warn or error. log-level=warn ## Related to save downloading progress ## # 从会话文件中读取下载任务 input-file=/app/conf/aria2.session # 在Aria2退出时保存`错误/未完成`的下载任务到会话文件 save-session=/app/conf/aria2.session # 定时保存会话, 0为退出时才保存, 需1.16.1以上版本, 默认:0 save-session-interval=60 bt-enable-lpd=true # from https://trackerslist.com/all_aria2.txt bt-tracker=http://1337.abcvg.info:80/announce,http://207.241.226.111:6969/announce,http://207.241.231.226:6969/announce,http://[2001:1b10:1000:8101:0:242:ac11:2]:6969/announce,http://[2001:470:1:189:0:1:2:3]:6969/announce,http://[2a04:ac00:1:3dd8::1:2710]:2710/announce,http://bt.okmp3.ru:2710/announce,http://fxtt.ru:80/announce,http://mediaclub.tv:80/announce.php,http://milanesitracker.tekcities.com:80/announce,http://nyaa.tracker.wf:7777/announce,http://open.acgnxtracker.com:80/announce,http://open.acgtracker.com:1096/announce,http://open.tracker.ink:6969/announce,http://openbittorrent.com:80/announce,http://opentracker.xyz:80/announce,http://pow7.com:80/announce,http://retracker.hotplug.ru:2710/announce,http://share.camoe.cn:8080/announce,http://t.acg.rip:6699/announce,http://t.nyaatracker.com:80/announce,http://torrenttracker.nwc.acsalaska.net:6969/announce,http://tracker.birkenwald.de:6969/announce,http://tracker.bt4g.com:2095/announce,http://tracker.dler.org:6969/announce,http://tracker.files.fm:6969/announce,http://tracker.gbitt.info:80/announce,http://tracker.hiyj.cn:80/announce,http://tracker.ipv6tracker.ru:80/announce,http://tracker.lelux.fi:80/announce,http://tracker.loadbt.com:6969/announce,http://tracker.mywaifu.best:6969/announce,http://tracker.openbittorrent.com:80/announce,http://tracker.opentrackr.org:1337/announce,http://tracker.skyts.net:6969/announce,http://tracker.srv00.com:6969/announce,http://tracker.swarm3.network:6969/announce,http://tracker.zerobytes.xyz:1337/announce,http://tracker1.bt.moack.co.kr:80/announce,http://tracker1.itzmx.com:8080/announce,http://tracker2.dler.org:80/announce,http://tracker4.itzmx.com:2710/announce,http://vps02.net.orel.ru:80/announce,https://1337.abcvg.info:443/announce,https://carbon-bonsai-621.appspot.com:443/announce,https://chihaya-heroku.120181311.xyz:443/announce,https://opentracker.cc:443/announce,https://opentracker.i2p.rocks:443/announce,https://tp.m-team.cc:443/announce.php,https://tr.abir.ga:443/announce,https://tr.burnabyhighstar.com:443/announce,https://tr.doogh.club:443/announce,https://tr.fuckbitcoin.xyz:443/announce,https://tr.highstar.shop:443/announce,https://tr.ready4.icu:443/announce,https://tr.torland.ga:443/announce,https://tracker.babico.name.tr:443/announce,https://tracker.foreverpirates.co:443/announce,https://tracker.imgoingto.icu:443/announce,https://tracker.iriseden.fr:443/announce,https://tracker.kuroy.me:443/announce,https://tracker.lelux.fi:443/announce,https://tracker.lilithraws.cf:443/announce,https://tracker.lilithraws.org:443/announce,https://tracker.nanoha.org:443/announce,https://tracker.nitrix.me:443/announce,https://tracker.yarr.pt:443/announce,https://trackme.theom.nz:443/announce,udp://207.241.226.111:6969/announce,udp://207.241.231.226:6969/announce,udp://212.1.226.176:2710/announce,udp://52.58.128.163:6969/announce,udp://6ahddutb1ucc3cp.ru:6969/announce,udp://78.30.254.12:2710/announce,udp://9.rarbg.com:2810/announce,udp://91.216.110.52:451/announce,udp://[2001:1b10:1000:8101:0:242:ac11:2]:6969/announce,udp://[2001:470:1:189:0:1:2:3]:6969/announce,udp://[2a03:7220:8083:cd00::1]:451/announce,udp://[2a04:ac00:1:3dd8::1:2710]:2710/announce,udp://[2a0f:e586:f:f::220]:6969/announce,udp://abufinzio.monocul.us:6969/announce,udp://admin.videoenpoche.info:6969/announce,udp://bclearning.top:6969/announce,udp://bt1.archive.org:6969/announce,udp://bt2.archive.org:6969/announce,udp://bubu.mapfactor.com:6969/announce,udp://camera.lei001.com:6969/announce,udp://concen.org:6969/announce,udp://cutiegirl.ru:6969/announce,udp://engplus.ru:6969/announce,udp://exodus.desync.com:6969/announce,udp://fe.dealclub.de:6969/announce,udp://inferno.demonoid.is:3391/announce,udp://ipv4.tracker.harry.lu:80/announce,udp://ipv6.tracker.harry.lu:80/announce,udp://ipv6.tracker.monitorit4.me:6969/announce,udp://jeremylee.sh:6969/announce,udp://leet-tracker.moe:6969/announce,udp://mirror.aptus.co.tz:6969/announce,udp://movies.zsw.ca:6969/announce,udp://mts.tvbit.co:6969/announce,udp://open.demonii.com:1337/announce,udp://open.publictracker.xyz:6969/announce,udp://open.stealth.si:80/announce,udp://open.tracker.cl:1337/announce,udp://open.tracker.ink:6969/announce,udp://opentor.org:2710/announce,udp://p4p.arenabg.com:1337/announce,udp://pow7.com:80/announce,udp://public.publictracker.xyz:6969/announce,udp://retracker.hotplug.ru:2710/announce,udp://retracker.lanta-net.ru:2710/announce,udp://retracker.netbynet.ru:2710/announce,udp://run.publictracker.xyz:6969/announce,udp://torrentclub.space:6969/announce,udp://tr.bangumi.moe:6969/announce,udp://tr.cili001.com:8070/announce,udp://tracker-udp.gbitt.info:80/announce,udp://tracker.0x.tf:6969/announce,udp://tracker.altrosky.nl:6969/announce,udp://tracker.auctor.tv:6969/announce,udp://tracker.babico.name.tr:8000/announce,udp://tracker.beeimg.com:6969/announce,udp://tracker.birkenwald.de:6969/announce,udp://tracker.bitsearch.to:1337/announce,udp://tracker.cyberia.is:6969/announce,udp://tracker.ddunlimited.net:6969/announce,udp://tracker.dler.com:6969/announce,udp://tracker.dler.org:6969/announce,udp://tracker.edkj.club:6969/announce,udp://tracker.fatkhoala.org:13710/announce,udp://tracker.filemail.com:6969/announce,udp://tracker.jordan.im:6969/announce,udp://tracker.lelux.fi:6969/announce,udp://tracker.loadbt.com:6969/announce,udp://tracker.moeking.eu.org:6969/announce,udp://tracker.moeking.me:6969/announce,udp://tracker.monitorit4.me:6969/announce,udp://tracker.ololosh.space:6969/announce,udp://tracker.openbittorrent.com:6969/announce,udp://tracker.opentrackr.org:1337/announce,udp://tracker.pomf.se:80/announce,udp://tracker.skyts.net:6969/announce,udp://tracker.srv00.com:6969/announce,udp://tracker.swarm3.network:6969/announce,udp://tracker.sylphix.com:6969/announce,udp://tracker.theoks.net:6969/announce,udp://tracker.tiny-vps.com:6969/announce,udp://tracker.torrent.eu.org:451/announce,udp://tracker.zemoj.com:6969/announce,udp://tracker.zerobytes.xyz:1337/announce,udp://tracker1.bt.moack.co.kr:80/announce,udp://tracker1.itzmx.com:8080/announce,udp://tracker2.dler.com:80/announce,udp://tracker2.dler.org:80/announce,udp://tracker2.itzmx.com:6961/announce,udp://tracker3.itzmx.com:6961/announce,udp://tracker4.itzmx.com:2710/announce,udp://tracker6.lelux.fi:6969/announce,udp://u4.trakx.crim.ist:1337/announce,udp://vibe.sleepyinternetfun.xyz:1738/announce,udp://www.torrent.eu.org:451/announce,ws://hub.bugout.link:80/announce,wss://tracker.openwebtorrent.com:443/announce # The script to be run when download completes on-download-complete=/app/conf/aria2-sample-hook.sh # The script to be run when download fails on-download-error=/app/conf/aria2-sample-hook.sh dht-file-path=/data/docker/aria2/app/dht.dat dht-file-path6=/data/docker/aria2/app/dht6.dat
创建dht文件
mkdir /root/.cache/aria2 -p
echo '' >> /data/docker/aria2/app/dht.dat
echo '' >>/data/docker/aria2/app/dht6.dat
下载几个热门资源,分享一段时间
nginx文件服务器
apt install nginx
vi /etc/nginx/sites-available/default
location /data/ { alias /data/; autoindex on; autoindex_exact_size off; }
nfs 宿主机 因公司网络限制,不如samba好用
buddyfly/openwrt-aarch64的nfs工作不正常
apt-get install portmap nfs-kernel-server
vi /etc/exports
/data *(rw,sync,no_root_squash)
/etc/init.d/nfs-kernel-server restart
mount -t nfs -o nolock 192.168.122.4:/data /mnt/nfs
samba 宿主机
无需密码,具备root权限
apt-get install samba
vi /etc/samba/smb.conf
[data] path = /data writeable=Yes create mask=0777 directory mask=0777 public=yes browseable=yes forceuser=root forcegroup=root
systemctl restart smbd
mysql 宿主机
参考
https://www.jianshu.com/p/f440099f056d
https://www.i4k.xyz/article/nthack5730/97952316
mysql的docker镜像无法跑在树莓派上
安装
apt-get install mariadb-server
systemctl start mariadb
systemctl enable mariadb
lsof -i:3306
基本设置,参考 https://www.i4k.xyz/article/nthack5730/97952316
mysql_secure_installation
配置密码
update mysql.user set password=password("mypassword") where user='root';
FLUSH PRIVILEGES;
修改外部可访问
/etc/mysql/mariadb.conf.d/50-server.cnf
bind-address = 127.0.0.1
改为
bind-address = 0.0.0.0
配置远程权限
GRANT ALL PRIVILEGES ON *.* TO 'root'@'%' IDENTIFIED BY 'mypassword' WITH GRANT OPTION;
FLUSH PRIVILEGES;
配置文件路径
/var/lib/mysql/
/var/log/mysql/
/etc/mysql/
忘记密码处理,参考https://cloud.tencent.com/developer/article/1687773
先关闭服务 systemctl stop mysqld
已安全方式启动服务 mysqld_safe --skip-grant-tables &
无需密码登录 mysql -u root
更新密码
update mysql.user set password=password("MY_NEW_PASSWORD") where user="root";
FLUSH PRIVILEGES;
重启系统 root
redis 宿主机
apt-get install redis-server
vim /etc/redis/redis.conf
#注释掉 bind 127.0.0.1 ::1
/etc/init.d/redis-server restart
docker scrapy爬虫
参考
https://www.runoob.com/w3cnote/scrapy-detail.html
https://docs.scrapy.org/en/latest/intro/tutorial.html
https://blog.csdn.net/weixin_45335208/article/details/103311810
https://github.com/scrapy/scrapy 文档做的不错,fae文档可参考
centos7安装
docker安装无法后台启动服务,树莓派安装不成功
参考
https://blog.csdn.net/ADCadc123456789/article/details/106630260
https://blog.csdn.net/ADCadc123456789/article/details/106630260
yum -y install zlib-devel bzip2-devel openssl-devel ncurses-devel sqlite-devel readline-devel tk-devel gdbm-devel db4-devel libpcap-devel xz-devel
pip3 install scrapy
pip3 install scrapyd
scrapyd远程访问
vi /usr/local/lib/python3.6/site-packages/scrapyd/default_scrapyd.conf
把127.0.0.1改成0.0.0.0
pip3 install scrapyd-client
pip3 install scrapydweb
vi scrapydweb_settings_v10.py
# coding: utf-8 """ How ScrapydWeb works: BROWSER <<<>>> SCRAPYDWEB_BIND:SCRAPYDWEB_PORT <<<>>> your SCRAPYD_SERVERS GitHub: https://github.com/my8100/scrapydweb DOCS: https://github.com/my8100/files/blob/master/scrapydweb/README.md 文档:https://github.com/my8100/files/blob/master/scrapydweb/README_CN.md """ import os ############################## QUICK SETUP start ############################## ############################## 快速设置 开始 ################################### # Setting SCRAPYDWEB_BIND to '0.0.0.0' or IP-OF-THE-CURRENT-HOST would make # ScrapydWeb server visible externally; Otherwise, set it to '127.0.0.1'. # The default is '0.0.0.0'. SCRAPYDWEB_BIND = '0.0.0.0' # Accept connections on the specified port, the default is 5000. SCRAPYDWEB_PORT = 5000 # The default is False, set it to True to enable basic auth for the web UI. ENABLE_AUTH = True # In order to enable basic auth, both USERNAME and PASSWORD should be non-empty strings. USERNAME = 'cjpthree' PASSWORD = 'C123456@cjp' # Make sure that [Scrapyd](https://github.com/scrapy/scrapyd) has been installed # and started on all of your hosts. # Note that for remote access, you have to manually set 'bind_address = 0.0.0.0' # in the configuration file of Scrapyd and restart Scrapyd to make it visible externally. # Check out 'https://scrapyd.readthedocs.io/en/latest/config.html#example-configuration-file' for more info. # ------------------------------ Chinese -------------------------------------- # 请先确保所有主机都已经安装和启动 [Scrapyd](https://github.com/scrapy/scrapyd)。 # 如需远程访问 Scrapyd,则需在 Scrapyd 配置文件中设置 'bind_address = 0.0.0.0',然后重启 Scrapyd。 # 详见 https://scrapyd.readthedocs.io/en/latest/config.html#example-configuration-file # - the string format: username:password@ip:port#group # - The default port would be 6800 if not provided, # - Both basic auth and group are optional. # - e.g. '127.0.0.1:6800' or 'username:password@localhost:6801#group' # - the tuple format: (username, password, ip, port, group) # - When the username, password, or group is too complicated (e.g. contains ':@#'), # - or if ScrapydWeb fails to parse the string format passed in, # - it's recommended to pass in a tuple of 5 elements. # - e.g. ('', '', '127.0.0.1', '6800', '') or ('username', 'password', 'localhost', '6801', 'group') SCRAPYD_SERVERS = [ 'jarxi.com:6800', # 'username:password@localhost:6801#group', ('username', 'password', 'localhost', '6801', 'group'), ] # It's recommended to update the three options below # if both ScrapydWeb and one of your Scrapyd servers run on the same machine. # ------------------------------ Chinese -------------------------------------- # 假如 ScrapydWeb 和某个 Scrapyd 运行于同一台主机,建议更新如下三个设置项。 # If both ScrapydWeb and one of your Scrapyd servers run on the same machine, # ScrapydWeb would try to directly read Scrapy logfiles from disk, instead of making a request # to the Scrapyd server. # e.g. '127.0.0.1:6800' or 'localhost:6801', do not forget the port number. LOCAL_SCRAPYD_SERVER = 'jarxi.com:6800' # Enter the directory when you run Scrapyd, run the command below # to find out where the Scrapy logs are stored: # python -c "from os.path import abspath, isdir; from scrapyd.config import Config; path = abspath(Config().get('logs_dir')); print(path); print(isdir(path))" # Check out https://scrapyd.readthedocs.io/en/stable/config.html#logs-dir for more info. # e.g. 'C:/Users/username/logs' or '/home/username/logs' LOCAL_SCRAPYD_LOGS_DIR = '/root/scrapy/logs' # The default is False, set it to True to automatically run LogParser as a subprocess at startup. # Note that you can run the LogParser service separately via command 'logparser' as you like. # Run 'logparser -h' to find out the config file of LogParser for more advanced settings. # Visit https://github.com/my8100/logparser for more info. ENABLE_LOGPARSER = True ############################## QUICK SETUP end ################################ ############################## 快速设置 结束 ################################### ############################## ScrapydWeb ##################################### # The default is False, set it to True and add both CERTIFICATE_FILEPATH and PRIVATEKEY_FILEPATH # to run ScrapydWeb in HTTPS mode. # Note that this feature is not fully tested, please leave your comment here if ScrapydWeb # raises any excepion at startup: https://github.com/my8100/scrapydweb/issues/18 ENABLE_HTTPS = False # e.g. '/home/username/cert.pem' CERTIFICATE_FILEPATH = '' # e.g. '/home/username/cert.key' PRIVATEKEY_FILEPATH = '' ############################## Scrapy ######################################### # ScrapydWeb is able to locate projects in the SCRAPY_PROJECTS_DIR, # so that you can simply select a project to deploy, instead of packaging it in advance. # e.g. 'C:/Users/username/myprojects' or '/home/username/myprojects' SCRAPY_PROJECTS_DIR = '/root/scrapy/project' ############################## Scrapyd ######################################## # ScrapydWeb would try every extension in sequence to locate the Scrapy logfile. # The default is ['.log', '.log.gz', '.txt']. SCRAPYD_LOG_EXTENSIONS = ['.log', '.log.gz', '.txt'] ############################## LogParser ###################################### # Whether to backup the stats json files locally after you visit the Stats page of a job # so that it is still accessible even if the original logfile has been deleted. # The default is True, set it to False to disable this behaviour. BACKUP_STATS_JSON_FILE = True ############################## Timer Tasks #################################### # Run ScrapydWeb with argument '-sw' or '--switch_scheduler_state', or click the ENABLED|DISABLED button # on the Timer Tasks page to turn on/off the scheduler for the timer tasks and the snapshot mechanism below. # The default is 300, which means ScrapydWeb would automatically create a snapshot of the Jobs page # and save the jobs info in the database in the background every 300 seconds. # Note that this behaviour would be paused if the scheduler for timer tasks is disabled. # Set it to 0 to disable this behaviour. JOBS_SNAPSHOT_INTERVAL = 300 ############################## Run Spider ##################################### # The default is False, set it to True to automatically # expand the 'settings & arguments' section in the Run Spider page. SCHEDULE_EXPAND_SETTINGS_ARGUMENTS = False # The default is 'Mozilla/5.0', set it a non-empty string to customize the default value of `custom` # in the drop-down list of `USER_AGENT`. SCHEDULE_CUSTOM_USER_AGENT = 'Mozilla/5.0' # The default is None, set it to any value of ['custom', 'Chrome', 'iPhone', 'iPad', 'Android'] # to customize the default value of `USER_AGENT`. SCHEDULE_USER_AGENT = None # The default is None, set it to True or False to customize the default value of `ROBOTSTXT_OBEY`. SCHEDULE_ROBOTSTXT_OBEY = None # The default is None, set it to True or False to customize the default value of `COOKIES_ENABLED`. SCHEDULE_COOKIES_ENABLED = None # The default is None, set it to a non-negative integer to customize the default value of `CONCURRENT_REQUESTS`. SCHEDULE_CONCURRENT_REQUESTS = None # The default is None, set it to a non-negative number to customize the default value of `DOWNLOAD_DELAY`. SCHEDULE_DOWNLOAD_DELAY = None # The default is "-d setting=CLOSESPIDER_TIMEOUT=60\r\n-d setting=CLOSESPIDER_PAGECOUNT=10\r\n-d arg1=val1", # set it to '' or any non-empty string to customize the default value of `additional`. # Use '\r\n' as the line separator. SCHEDULE_ADDITIONAL = "-d setting=CLOSESPIDER_TIMEOUT=60\r\n-d setting=CLOSESPIDER_PAGECOUNT=10\r\n-d arg1=val1" ############################## Page Display ################################### # The default is True, set it to False to hide the Items page, as well as # the Items column in the Jobs page. SHOW_SCRAPYD_ITEMS = True # The default is True, set it to False to hide the Job column in the Jobs page with non-database view. SHOW_JOBS_JOB_COLUMN = True # The default is 0, which means unlimited, set it to a positive integer so that # only the latest N finished jobs would be shown in the Jobs page with non-database view. JOBS_FINISHED_JOBS_LIMIT = 0 # If your browser stays on the Jobs page, it would be reloaded automatically every N seconds. # The default is 300, set it to 0 to disable auto-reloading. JOBS_RELOAD_INTERVAL = 300 # The load status of the current Scrapyd server is checked every N seconds, # which is displayed in the top right corner of the page. # The default is 10, set it to 0 to disable auto-refreshing. DAEMONSTATUS_REFRESH_INTERVAL = 10 ############################## Send Text ###################################### ########## usage in scrapy projects ########## # See the "Send Text" page ########## slack ########## # How to create a slack app: # 1. Visit https://api.slack.com/apps and press the "Create New App" button. # 2. Enter your App Name (e.g. myapp)and select one of your Slack Workspaces, the press "Create App". # 3. Click the "OAuth & Permissions" menu in the sidebar on the left side of the page. # 4. Scroll down the page and find out "Select Permission Scopes" in the "Scopes" section # 5. Enter "send" and select "Send messages as <your-app-name>", then press "Save Changes" # 6. Scroll up the page and press "Install App to Workspace", then press "Install" # 7. Copy the "OAuth Access Token", e.g. xoxp-123-456-789-abcde # See https://api.slack.com/apps for more info # See step 1~7 above, e.g. 'xoxp-123-456-789-abcde' SLACK_TOKEN = os.environ.get('SLACK_TOKEN', '') # The default channel to use when sending text via slack, e.g. 'general' SLACK_CHANNEL = 'general' ########## telegram ########## # How to create a telegram bot: # 1. Visit https://telegram.me/botfather to start a conversation with Telegram's bot that creates other bots. # 2. Send the /newbot command to create a new bot in a chat with BotFather. # 3. Follow the instructions to set up name and username (e.g. my_bot) for your bot. # 4. You would get a token (e.g. 123:abcde) after step 3. # 5. Visit telegram.me/<bot_username> (e.g. telegram.me/my_bot) and say hi to your bot to initiate a conversation. # 6. Visit https://api.telegram.org/bot<token-in-setp-4>/getUpdates to get the chat_id. # (e.g. Visit https://api.telegram.org/bot123:abcde/getUpdates # and you can find the chat_id in "chat":{"id":123456789,...) # See https://core.telegram.org/bots#6-botfather for more info # See step 1~4 above, e.g. '123:abcde' TELEGRAM_TOKEN = os.environ.get('TELEGRAM_TOKEN', '') # See step 5~6 above, e.g. 123456789 TELEGRAM_CHAT_ID = int(os.environ.get('TELEGRAM_CHAT_ID', 0)) ########## email ########## # The default subject to use when sending text via email. EMAIL_SUBJECT = 'Email from #scrapydweb' ########## email sender & recipients ########## # Leave this option as '' to default to the EMAIL_SENDER option below; Otherwise, set it up # if your email service provider requires an username which is different from the EMAIL_SENDER option below to login. # e.g. 'username' EMAIL_USERNAME = '' # As for different email service provider, you might have to get an APP password (like Gmail) # or an authorization code (like QQ mail) and set it as the EMAIL_PASSWORD. # Check out links below to get more help: # https://stackoverflow.com/a/27515833/10517783 How to send an email with Gmail as the provider using Python? # https://stackoverflow.com/a/26053352/10517783 Python smtplib proxy support # e.g. 'password4gmail' EMAIL_PASSWORD = os.environ.get('EMAIL_PASSWORD', '') # e.g. 'username@gmail.com' EMAIL_SENDER = '' # e.g. ['username@gmail.com', ] EMAIL_RECIPIENTS = [EMAIL_SENDER] ########## email smtp settings ########## # Check out this link if you are using ECS of Alibaba Cloud and your SMTP server provides TCP port 25 only: # https://www.alibabacloud.com/help/doc-detail/56130.htm # Config for https://mail.google.com using SSL: ('smtp.gmail.com', 465, True) # Config for https://mail.google.com: ('smtp.gmail.com', 587, False) # Config for https://mail.qq.com using SSL: ('smtp.qq.com', 465, True) # Config for http://mail.10086.cn: ('smtp.139.com', 25, False) SMTP_SERVER = '' SMTP_PORT = 0 SMTP_OVER_SSL = False # The timeout in seconds for the connection attempt, the default is 30. SMTP_CONNECTION_TIMEOUT = 30 ############################## Monitor & Alert ################################ # The default is False, set it to True to launch the poll subprocess to monitor your crawling jobs. ENABLE_MONITOR = False ########## poll interval ########## # Tip: In order to be notified (and stop or forcestop a job when triggered) in time, # you can reduce the value of POLL_ROUND_INTERVAL and POLL_REQUEST_INTERVAL, # at the cost of burdening both CPU and bandwidth of your servers. # Sleep N seconds before starting next round of poll, the default is 300. POLL_ROUND_INTERVAL = 300 # Sleep N seconds between each request to the Scrapyd server while polling, the default is 10. POLL_REQUEST_INTERVAL = 10 ########## alert switcher ########## # Tip: Set the SCRAPYDWEB_BIND option the in "QUICK SETUP" section to the actual IP of your host, # then you can visit ScrapydWeb via the links attached in the alert. # The default is False, set it to True to enable alert via Slack, Telegram, or Email. # You have to set up your accounts in the "Send text" section above first. ENABLE_SLACK_ALERT = False ENABLE_TELEGRAM_ALERT = False ENABLE_EMAIL_ALERT = False ########## alert working time ########## # Monday is 1 and Sunday is 7. # e.g, [1, 2, 3, 4, 5, 6, 7] ALERT_WORKING_DAYS = [] # From 0 to 23. # e.g. [9] + list(range(15, 18)) >>> [9, 15, 16, 17], or range(24) for 24 hours ALERT_WORKING_HOURS = [] ########## basic triggers ########## # Trigger alert every N seconds for each running job. # The default is 0, set it to a positive integer to enable this trigger. ON_JOB_RUNNING_INTERVAL = 0 # Trigger alert when a job is finished. # The default is False, set it to True to enable this trigger. ON_JOB_FINISHED = False ########## advanced triggers ########## # - LOG_XXX_THRESHOLD: # - Trigger alert the first time reaching the threshold for a specific kind of log. # - The default is 0, set it to a positive integer to enable this trigger. # - LOG_XXX_TRIGGER_STOP (optional): # - The default is False, set it to True to stop current job automatically when reaching the LOG_XXX_THRESHOLD. # - The SIGTERM signal would be sent only one time to shut down the crawler gracefully. # - In order to avoid an UNCLEAN shutdown, the 'STOP' action would be executed one time at most # - if none of the 'FORCESTOP' triggers is enabled, no matter how many 'STOP' triggers are enabled. # - LOG_XXX_TRIGGER_FORCESTOP (optional): # - The default is False, set it to True to FORCESTOP current job automatically when reaching the LOG_XXX_THRESHOLD. # - The SIGTERM signal would be sent twice resulting in an UNCLEAN shutdown, without the Scrapy stats dumped! # - The 'FORCESTOP' action would be executed if both of the 'STOP' and 'FORCESTOP' triggers are enabled. # Note that the 'STOP' action and the 'FORCESTOP' action would still be executed even when the current time # is NOT within the ALERT_WORKING_DAYS and the ALERT_WORKING_HOURS, though no alert would be sent. LOG_CRITICAL_THRESHOLD = 0 LOG_CRITICAL_TRIGGER_STOP = False LOG_CRITICAL_TRIGGER_FORCESTOP = False LOG_ERROR_THRESHOLD = 0 LOG_ERROR_TRIGGER_STOP = False LOG_ERROR_TRIGGER_FORCESTOP = False LOG_WARNING_THRESHOLD = 0 LOG_WARNING_TRIGGER_STOP = False LOG_WARNING_TRIGGER_FORCESTOP = False LOG_REDIRECT_THRESHOLD = 0 LOG_REDIRECT_TRIGGER_STOP = False LOG_REDIRECT_TRIGGER_FORCESTOP = False LOG_RETRY_THRESHOLD = 0 LOG_RETRY_TRIGGER_STOP = False LOG_RETRY_TRIGGER_FORCESTOP = False LOG_IGNORE_THRESHOLD = 0 LOG_IGNORE_TRIGGER_STOP = False LOG_IGNORE_TRIGGER_FORCESTOP = False ############################## System ######################################### # The default is False, set it to True to enable debug mode and the interactive debugger # would be shown in the browser instead of the "500 Internal Server Error" page. # Note that use_reloader is set to False in run.py DEBUG = False # The default is False, set it to True to change the logging level from INFO to DEBUG # for getting more information about how ScrapydWeb works, especially while debugging. VERBOSE = False # The default is '', which means saving all program data in the Python directory. # e.g. 'C:/Users/username/scrapydweb_data' or '/home/username/scrapydweb_data' DATA_PATH = os.environ.get('DATA_PATH', '') # The default is '', which means saving data of Jobs and Timer Tasks in DATA_PATH using SQLite. # The data could be also saved in MySQL or PostgreSQL backend in order to improve concurrency. # To use MySQL backend, run command: pip install --upgrade pymysql # To use PostgreSQL backend, run command: pip install --upgrade psycopg2 # e.g. # 'mysql://username:password@127.0.0.1:3306' # 'postgres://username:password@127.0.0.1:5432' # 'sqlite:///C:/Users/username' # 'sqlite:////home/username' DATABASE_URL = os.environ.get('DATABASE_URL', '')
pip3 install logparser
开机启动
/etc/init.d/scrapyd
#!/bin/bash # chkconfig: 2345 20 80 # description: Srapyd PORT=6800 # 这一项可修改为项目地址 HOME="/root/scrapy" BIN="/usr/local/bin/scrapyd" pid=`netstat -lnopt | grep :$PORT | awk '/python/{gsub(/\/python3/,"",$7);print $7;}'` start() { if [ -n "$pid" ]; then echo "server already start,pid:$pid" return 0 fi cd $HOME nohup $BIN >> $HOME/scrapyd.log 2>&1 & echo "start at port:$PORT" } stop() { if [ -z "$pid" ]; then echo "not find program on port:$PORT" return 0 fi #结束程序,使用讯号2,如果不行可以尝试讯号9强制结束 kill -9 $pid echo "kill program use signal 9,pid:$pid" } status() { if [ -z "$pid" ]; then echo "not find program on port:$PORT" else echo "program is running,pid:$pid" fi } case $1 in start) start ;; stop) stop ;; status) status ;; *) echo "Usage: {start|stop|status}" ;; esac exit 0
/etc/init.d/scrapydweb
#!/bin/bash # chkconfig: 2345 50 89 # description: Srapydweb PORT=5000 # 这一项可修改为项目地址 HOME="/root/scrapy" BIN="/usr/local/bin/scrapydweb" pid=`netstat -lnopt | grep :$PORT | awk '/python/{gsub(/\/python3/,"",$7);print $7;}'` start() { if [ -n "$pid" ]; then echo "server already start,pid:$pid" return 0 fi cd $HOME nohup $BIN >> $HOME/scrapydweb.log 2>&1 & echo "start at port:$PORT" } stop() { if [ -z "$pid" ]; then echo "not find program on port:$PORT" return 0 fi #结束程序,使用讯号2,如果不行可以尝试讯号9强制结束 kill -9 $pid echo "kill program use signal 9,pid:$pid" } status() { if [ -z "$pid" ]; then echo "not find program on port:$PORT" else echo "program is running,pid:$pid" fi } case $1 in start) start ;; stop) stop ;; status) status ;; *) echo "Usage: {start|stop|status}" ;; esac exit 0
chkconfig --add scrapyd
chkconfig --del scrapyd
chkconfig --add scrapydweb
chkconfig --list
docker安装
docker run --name scrapy --restart always -dit --network macnet --privileged --ip=192.168.122.9 -v /etc/timezone:/etc/timezone:ro -v /etc/localtime:/etc/localtime:ro -v /data:/data badouralix/python-scrapy
apt update; apt install vim curl net-tools
docker-compose
vi docker-compose.yml
version: '3' services: scrapy: image: badouralix/python-scrapy container_name: scrapy tty: true restart: always privileged: true environment: TZ: Asia/Shanghai volumes: - /data:/data networks: macnet: ipv4_address: 192.168.122.9 networks: macnet: external: true
up -d; start; stop; down
scrapy测试抓取
scrapy shell http://www.baidu.com
项目1
创建项目
scrapy startproject tutorial
cd tutorial
创建爬虫
scrapy genspider quotes "toscrape.com"
vi tutorial/spiders/quotes.py
import scrapy class QuotesSpider(scrapy.Spider): name = "quotes" def start_requests(self): urls = [ 'https://quotes.toscrape.com/page/1/', 'https://quotes.toscrape.com/page/2/', ] for url in urls: yield scrapy.Request(url=url, callback=self.parse) def parse(self, response): page = response.url.split("/")[-2] filename = f'quotes-{page}.html' with open(filename, 'wb') as f: f.write(response.body) self.log(f'Saved file {filename}')
运行爬虫
scrapy list
scrapy crawl quotes
查看效果
ls -lh
项目2
创建项目
scrapy startproject mySpider
cd mySpider
创建爬虫
scrapy genspider itcast "itcast.cn"
vi mySpider/spiders/itcast.py
import scrapy class ItcastSpider(scrapy.Spider): name = 'itcast' start_urls = ['http://www.itcast.cn/channel/teacher.shtml'] def parse(self, response): filename = "teacher.html" with open(filename, 'wb') as f: f.write(response.body) context = response.xpath('/html/head/title/text()') title = context.extract_first() print(title) pass
运行爬虫
scrapy list
scrapy crawl itcast
查看效果
ls -lh
项目3
目的
抓取itcast首页上所有老师的信息
创建项目
scrapy startproject mySpider
cd mySpider
创建爬虫
vi mySpider/ItcastItem.py
import scrapy class ItcastItem(scrapy.Item): name = scrapy.Field() title = scrapy.Field() info = scrapy.Field()
vi mySpider/spiders/itcast.py
import scrapy from mySpider.ItcastItem import ItcastItem class ItcastSpider(scrapy.Spider): name = 'itcast' start_urls = ['http://www.itcast.cn/channel/teacher.shtml'] def parse(self, response): items = [] for each in response.xpath("//div[@class='li_txt']"): item = ItcastItem() name = each.xpath("h3/text()").extract() title = each.xpath("h4/text()").extract() info = each.xpath("p/text()").extract() item['name'] = name[0] item['title'] = title[0] item['info'] = info[0] items.append(item) return items pass
运行爬虫
scrapy list
scrapy crawl itcast -o teachers.csv
查看效果
ls -lh
使用scrapyd
前提:前面的tutorial项目1运行正常
cd tutorial
vi scrapy.cfg
[settings] default = tutorial.settings [deploy:tutorial_deploy] url = http://0.0.0.0:6800/ project = tutorial
scrapyd-deploy tutorial_deploy -p tutorial
curl http://localhost:6800/schedule.json -d project=tutorial -d spider=quotes
从页面查看效果
使用scrapydweb
http port 5000
问题
直接在服务器上安装,kdevtmpfsi挖矿程序侵占服务器,crontab出现异常任务
https://www.jianshu.com/p/af6c40ceea4b
分析:从阿里云返回的数据,应该是scrayd这个程序造成的问题
处理:删除可疑程序、任务、文件,删除爬虫相关文件,一周内每天上服务器复查,一月内每周复查,看看问题是否真的解决,没有解决的话,需要更换密钥
后续处理:爬虫还是不适合放阿里云服务器,放到树莓派的容器中,抛弃scrapyd和scrapydweb
wordpress
树莓派
docker run --name wordpress --restart always -d --network macnet --ip=192.168.122.11 -v /data/wordpress/html:/var/www/html --privileged wordpress
云服务器
vi docker-compose.yml
version: '2' services: wordpress: image: wordpress container_name: wordpress ports: - "6080:80" restart: always volumes: - /data/wordpress/html:/var/www/html
docker-compose up -d
gogs
直接安装在debian上总是不成功
docker run --name=gogs --restart always -d --network macnet -v /data/gogs:/data --privileged --ip=192.168.122.9 gogs/gogs
home-assistant
参考
https://post.smzdm.com/p/a3dvvwld/
ha安装
参考
https://wittyfilter.github.io/blog/Smart-Home
docker
docker run --name ha --restart always -d --network macnet --ip=192.168.122.7 -v /data/docker/ha/config:/config -v /data:/data -v /etc/timezone:/etc/timezone:ro -v /etc/localtime:/etc/localtime:ro --privileged homeassistant/home-assistant:2022.2
docker-compose
vi docker-compose.yml
version: '3' services: ha: image: homeassistant/home-assistant container_name: ha tty: true restart: always privileged: true environment: TZ: Asia/Shanghai volumes: - /data:/data - /data/docker/ha/config:/config networks: macnet: ipv4_address: 192.168.122.7 networks: macnet: external: true
hacs安装,参考https://post.smzdm.com/p/a0dxnl9z/,https://www.163.com/dy/article/GQ4HBSHB0552IAIO.html
wget -O install.sh https://raw.githubusercontent.com/hacs/get/main/get && bash install.sh
添加'HACS'集成
小米设备加入ha,小米miot auto安装,参考 https://github.com/al-one/hass-xiaomi-miot/blob/master/README_zh.md
wget -q -O - https://cdn.jsdelivr.net/gh/al-one/hass-xiaomi-miot/install.sh | bash -
添加集成,配置--设备与服务--添加xiaomi miot auto,并完成配置,填入账号密码
此时可以把小米的设备同步到ha中,小米雷士灯是没有问题的
美的空调加入ha,参考 https://github.com/mac-zhou/midea-ac-py
发现局域网内的空调
apt install python3-pip
pip3 install --upgrade pip
pip3 install msmart
midea-discover
安装
git克隆代码安装,Place the custom_components/midea_ac folder into your custom_components folder
通过hacs搜索midea_ac,安装。此方法无法成功
填写配置 configuration.yaml,midea-discover会提供配置信息
midea-discover识别ip地址可能会出错,这样的话就无法得到token和key。可暂时修改ip地址为midea-discover识别到的地址,得到token和key后再改回来
重启ha就可以看到空调了
易微联,参考 https://github.com/AlexxIT/SonoffLAN#install-with-hacs
克隆代码安装,把sonoff文件夹拷贝到插件文件夹
configuration.yaml配置文件增加如下配置
sonoff:
username: +8613099713379
password: mypassword
重启ha后就能在首页看到易微联的设备
天猫精灵
参考
安装 https://post.smzdm.com/p/av7k64nn/
初步使用 https://yatao.blog.csdn.net/article/details/80736954
https://bbs.iobroker.cn/t/topic/6337
https://flows.nodered.org/node/node-red-contrib-aliyun-livinglink
步骤
ha开启https,参考 https://bbs.hassbian.com/thread-9506-1-1.html
阿里云首页--安全--ssl证书--选购ssl证书--购买免费证书
证书控制台--SSL证书--免费证书--创建证书
下载证书--类型选择'其他'
证书拷贝到ha系统,并进行配置configuration.yaml
http:
base_url: https://ddns.jarxi.com # 你的域名
ssl_certificate: /config/ssl/7329460_ddns.jarxi.com.pem #公钥文件地址,注意放在有读取权限的文件夹
ssl_key: /config/ssl/7329460_ddns.jarxi.com.key #私钥文件地址,注意放在有读取权限的文件夹
重启ha,应该就可以通过https访问了
ha绑定天猫精灵账号
参考
https://github.com/Yonsm/.homeassistant
https://github.com/Yonsm/ZhiBot/tree/5f850c74eeffb24f42db4724242fffffe7482bf5
阿里iot平台 https://iot.aligenie.com/skill/home
知识
入门介绍 https://bbs.hassbian.com/thread-14225-1-1.html
开机启动
ha使用了s6-overlay来管理后台程序
设置家庭位置
通过谷歌地图获取经纬度
vi config/.storage/core.config
{ "version": 1, "minor_version": 1, "key": "core.config", "data": { "latitude": 22.813057772428245, "longitude": 113.36884903914326, "elevation": 55, "unit_system": "metric", "location_name": "\u6211\u7684\u5bb6", "time_zone": "Asia/Shanghai", "external_url": null, "internal_url": null, "currency": "CNY" } }
配置
vi configuration.yaml
# Configure a default setup of Home Assistant (frontend, api, etc) default_config: # Text to speech tts: - platform: google_translate automation: !include automations.yaml script: !include scripts.yaml scene: !include scenes.yaml ########## midea ############################ climate: # kt - platform: midea_ac host: 192.168.122.51 id: 188016488662109 token: 298DC0EC238B1C4E54D14152EBCC318143A48BFE7B5428A5C8F0E621621076D9CC9D62CD79E04652972965BBD159965E28398453D69970BFB2D77735016BA103 k1: BB169E0E259B48BDAEADE88972281D6FF031DD5B30A34EB29FD27E1677D11C61 # zw - platform: midea_ac host: 192.168.122.52 id: 188016489401434 token: 67ABDC7A12F892A483A4FA3FD212D4AAAF1E0921EEC4C9B5A787C54E7A3DCC95591709479F8D3D0C953C197CDC8BBB475D6B3B7C6CC79F03848ACC68E20581D4 k1: 429EFC4A9A85427EB34F6BCFBE35DC56925E80FF94914174A685472ECCF663F1 # kw - platform: midea_ac host: 192.168.122.53 id: 195713069747014 token: 79D5CC208812FAC52C5F2CA2D09B96A4C853E89B1993CA16031A4D09DACAEB967D91337C5EC3D48C6E333520FDB0E416CEDE48415FCD2B7C647A3B2BF57ECA5E k1: A90F45F25D72428CA3BE263B068B657D928AD1D4D5F34FDE8D7F2D8EE3D55EAC # etf - platform: midea_ac host: 192.168.122.54 id: 197912093029789 token: E7B1B7A8C23312806C2AB0F92AF5AEEFCC7ECF8D91C2F8AFA0437CD6A493A99B71525F1F8D3FDEDC8E5822E6F16B9E50076ED660566D023F5E006C732DEFF6A8 k1: 6FE873F55F3D4C20AB17C976E8D72894EB3C2522017B4DF6BA9789A99278824D ################# ewelink ######################### sonoff: username: +8613097713379 password: C1~6@c~p
nodered
安装
docker run -it -p 1880:1880 -v /data/nodered:/data --name mynodered nodered/node-red
教程
https://www.cxyzjd.com/article/github_35631540/111869601
树莓派与docker虚拟机通信,参考 https://aoyouer.com/posts/macvlan-host/
配置macvlan宿主机与虚拟机互通
vi connectContainer.sh
#!/bin/sh ip link add macvlan0 link eth0 type macvlan mode bridge ifconfig macvlan0 hw ether 0a:35:63:10:fc:bc ip addr add 192.168.122.222/32 dev macvlan0 ip link set macvlan0 up
vi /etc/dhcpcd.conf
interface eth1 metric 100 interface macvlan0 metric 100
vi connectContainer.sh.reverse
#!/bin/sh ip link set macvlan0 down ip addr delete 192.168.122.222/32 dev macvlan0 ip link delete macvlan0 link eth0 type macvlan mode bridge
自动开启
vi /etc/network/interfaces
auto macvlan0 iface macvlan0 inet manual pre-up ip link add macvlan0 link eth0 type macvlan mode bridge pre-up ifconfig macvlan0 hw ether 0a:35:63:10:fc:bc pre-up ip addr add 192.168.122.222/32 dev macvlan0 up ip link set macvlan0 up
vi /etc/dhcpcd.conf
interface macvlan0 metric 100
为避免分配到其他的ip地址,最好路由器也设置一下静态路由
0a:35:63:10:fc:bc--192.168.122.222
配置科学上网,需要时手动执行(此脚本已适配过debian、ubuntu、alpine)
route del default route add default gw 192.168.122.5; if [ `head -n 1 /etc/resolv.conf | grep -c '192.168.122.5'` -eq '0' ];then echo 'nameserver 192.168.122.5' > /tmp/resolv.conf.tmp cat /etc/resolv.conf >> /tmp/resolv.conf.tmp cat /tmp/resolv.conf.tmp > /etc/resolv.conf fi
arm ubuntu试用
阿里云杭州、上海、北京已有arm服务器,上海较便宜
安装docker
apt install docker.io
阿里的服务器不会自动多分配ip地址,自定义ip地址就会无法上网,所以无法验证macvlan
性能很强,不比x86差
容器中修改时区
安装时区管理软件
debian
apt install -y tzdata
alpine
apk add tzdata
centos
yum install -y tzdata
ln -sf /usr/share/zoneinfo/Asia/Shanghai /etc/localtime
各系统翻墙
vi /data/bin/toGoogle.sh
#!/bin/sh gwIp='192.168.122.5' if [ `route -n | grep $gwIp | wc -l` -eq '0' ]; then ip route > /dev/null 2>&1 if [ $? -eq '0' ]; then ip route delete default ip route add default via $gwIp else route del default route add default gw $gwIp fi fi if [ `head -n 1 /etc/resolv.conf | grep -c $gwIp` -eq '0' ]; then echo 'nameserver '$gwIp > /tmp/resolv.conf.tmp cat /etc/resolv.conf >> /tmp/resolv.conf.tmp cat /tmp/resolv.conf.tmp > /etc/resolv.conf fi
vi toGoogle.sh.reverse
#!/bin/sh gwIp='192.168.122.5' gwIpDef='192.168.122.1' if [ `route -n | grep $gwIp | wc -l` -ne '0' ]; then ip route > /dev/null 2>&1 if [ $? -eq '0' ]; then ip route delete default via $gwIp ip route add default via $gwIpDef else route del default gw $gwIp route add default gw $gwIpDef fi fi if [ `head -n 1 /etc/resolv.conf | grep -c $gwIp` -ne '0' ]; then sed /$gwIp/d /etc/resolv.conf > /tmp/resolv.conf.tmp cat /tmp/resolv.conf.tmp > /etc/resolv.conf fi
pi debian
自启动
pi的debian系统经常刷新route,所以要把翻墙检查加到计划任务中,每5分钟执行
crontab -e
*/5 * * * * /data/bin/toGoogle.sh
pi宿主系统通过openwrt容器上网的话,性能大概降为50%
解决办法:翻墙还是要手动来启动,用完了可以不用手动删除,因为系统会自动刷新route
因宿主系统翻墙需求不强,手动开启即可
ha s6管理
vi /etc/services.d/home-assistant/run
#!/usr/bin/with-contenv bashio # ============================================================================== # Start Home Assistant service # ============================================================================== cd /config || bashio::exit.nok "Can't find config folder!" # Enable mimalloc for Home Assistant Core, unless disabled if [[ -z "${DISABLE_JEMALLOC+x}" ]]; then export LD_PRELOAD="/usr/local/lib/libjemalloc.so.2" fi /data/bin/toGoogle.sh exec python3 -m homeassistant --config /config
aria2
vi /app/init.sh
退出之前添加 /data/bin/toGoogle.sh
不适合一直开启翻墙,不然会消耗太多外网流量
只有需要时,手动开启
centos、ubuntu、scrapy
vi ~/.bashrc
添加 /data/bin/toGoogle.sh
性能优化
磁盘性能
把sd卡换成了ssd磁盘
原来极慢,没具体数据,调整后速度可接受
读写都已达到25M左右
磁盘写性能测试
rm ./tempfile -f; sync; dd if=/dev/zero of=./tempfile bs=1M count=1024; sync
1073741824 bytes (1.1 GB, 1.0 GiB) copied, 39.1526 s, 27.4 MB/s
读性能测试
dd if=./tempfile of=/dev/null bs=1M count=1024
1073741824 bytes (1.1 GB, 1.0 GiB) copied, 43.2554 s, 24.8 MB/s
网络性能
自带有线网卡100M,无线网卡80M,换了硬盘启动后,最大瓶颈是网卡,换成usb网卡可提升网络性能
上传性能
这个不好测试,参考下载性能即可
网络宽带测试
服务器端 iperf -s
客户端 iperf -c 192.168.1.1 -d -t 60
wget -qO- bench.sh | bash
超频,会造成不稳定,放弃
参考 https://www.freebuf.com/geek/161452.html
看cpu频率
cat /sys/devices/system/cpu/cpu0/cpufreq/cpuinfo_min_freq
600000
cat /sys/devices/system/cpu/cpu0/cpufreq/cpuinfo_max_freq
1200000
cat /sys/devices/system/cpu/cpu0/cpufreq/cpuinfo_cur_freq
600000
配置
系统建议配置,应该是最大的限制了,一般不能超这么高
# temp_limit=85 # temp_soft_limit=85 # arm_freq=1500 # gpu_freq=560 # sdram_freq=720 # sdram_schmoo=0x02000020 # dtparam=sd_overclock=100 # over_voltage=6 # over_voltage_sdram=8 # sdram_over_voltage=3 # over_voltage_sdram_c=6 # over_voltage_sdram_i=4 # over_voltage_sdram_p=4
系统默认配置
arm_freq=1200 gpu_freq=400 sdram_freq=450 over_voltage_sdram=0
可行超频配置
temp_limit=75 temp_soft_limit=75 arm_freq=1300
不可行超频配置-无法启动
temp_limit=75 temp_soft_limit=75 arm_freq=1500 over_voltage=3
计划测试配置
#温度限制 temp_limit=75 # 调整cpu频率 arm_freq=1400 # 调高cpu电压,这个要谨慎 over_voltage=1 # 调整内存频率 sdram_freq=500 # 调整内存电压 over_voltage_sdram=0
可行配置2
temp_limit=85 temp_soft_limit=85 arm_freq=1400 sdram_freq=500 over_voltage=3 over_voltage_sdram=3
最优配置
temp_limit=78 arm_freq=1350 sdram_freq=506 over_voltage=2 over_voltage_sdram=2
温度测试
测量温度
cat temp.sh
#!/bin/sh while true do vcgencmd measure_temp sleep 3 done
temp=60.7'C
cpu温度在75度以下是安全的,超过80度容易死机或自动关机,最好不要超过85度
测试时间 vi time.sh
#!/bin/bash CMD=$1 declare starttime=`date +%s%N` # do something $CMD # end do something declare endtime=`date +%s%N` c=`expr $endtime - $starttime` c=`expr $c / 1000000` echo "$c ms"
同步git脚本,vi syscGitRepo.sh
#!/bin/bash PWDD=$1 LOG_FILE=/tmp/syncGitRepo.log echo `date` "sync in foder $1" >> $LOG_FILE DIRRD="`find $PWDD -mindepth 1 -maxdepth 1 -type d`" for childdir in $DIRRD do echo "sync in foder $childdir" >> $LOG_FILE cd "$childdir" git reset --hard git fetch git rebase origin master cd "$PWDD" done exit 0
稳定性测试,性能测试
apt-get install sysbench
cpu性能
多线程
sysbench --num-threads=4 --test=cpu --cpu-max-prime=20000 run
单线程
sysbench --test=cpu --cpu-max-prime=2000 run
磁盘io性能
sysbench --test=fileio --threads=4 --file-total-size=1G --file-test-mode=rndrw prepare
sysbench --test=fileio --threads=4 --file-total-size=1G --file-test-mode=rndrw run
sysbench --test=fileio --threads=4 --file-total-size=1G --file-test-mode=rndrw cleanup
shell炸弹,让系统资源迅速耗尽,可用于测试看门狗
:() { :|:& };:
压力测试
最好十分钟以上
sudo apt install stress
stress -c 4 -t 10m -v
优化功率
关闭hdmi
关闭
/usr/bin/tvservice -o
开启
/usr/bin/tvservice -p
可加到/etc/rc.local
关闭wifi和蓝牙
systemctl stop hciuart
vi /boot/config.txt
dtoverlay=pi3-disable-bt
dtoverlay=pi3-disable-wifi
关闭音频
dtparam=audio=off
关闭LED
不可以关闭LED
查看系统信息
vi showsys.sh
#!/bin/sh MODE=$1 [ "$MODE" = "full" ] || MODE="simple" echo "MODE "$MODE while true do if [ "$MODE" = "full" ]; then DS=`docker stats --no-stream` CS=`top -bn 1 -i -c` fi TI=`date "+%Y-%m-%d %H:%M:%S"` echo "$TI"" --------------------------- " vcgencmd measure_temp vcgencmd measure_volts for src in arm core emmc; do \ echo "$src : \t$(vcgencmd measure_clock $src)"; \ done if [ "$MODE" = "full" ]; then echo "$DS" echo "$CS" fi sleep 3 done
降低最小频率
vi /boot/config
arm_freq_min=250
core_freq_min=100
sdram_freq_min=150
ref
https://blog.csdn.net/wyyyh9458/article/details/84189935
http://www.34iot.com/a/yingxiao/483.html
增加千兆网卡
用千兆网卡替换百兆网卡,性能有1倍左右的提升,容易死机
断开原网卡
断开macvlan连接 docker network disconnect macnet aria2
删除macvlan docker network rm macnet
ip link set eth1 promisc on
docker network create -d macvlan --subnet=192.168.122.0/24 --gateway=192.168.122.1 -o parent=eth1 macnet
docker network connect macnet aria2 --ip 192.168.122.8
双网卡绑定,性能不好,放弃
参考
https://www.cnblogs.com/ocp-100/articles/10653336.html
https://www.codeleading.com/article/55234852391/
https://forums.raspberrypi.com/viewtopic.php?t=182758
good https://mktop.wordpress.com/2015/06/11/raspberry-pi-nic-two-bond-configuration/
能用配置,mode改成1和5都可以
apt-get install ifenslave
vi /etc/modules
modprobe -v bond0有同样功效
bonding
vi /etc/modprobe.d/bonding.conf
alias bond0 bonding options bond0 mode=1 miimon=100
vi /etc/network/interfaces
source-directory /etc/network/interfaces.d auto eth0 iface eth0 inet manual auto eth1 iface eth1 inet manual auto bond0 iface bond0 inet static slaves eth0 eth1 bond-mode 1 bond-miimon 100 address 192.168.122.4 network 192.168.122.0 netmask 255.255.255.0 broadcast 192.168.122.255 gateway 192.168.122.1
验证结果
性能很差,树莓派上聚合网络后还不如单张网卡的速度
百M为主,千兆为辅。稳定,关键时候有性能,较好配置
千兆网卡只在宿主机起作用,并给了较高优先级
从树莓派拷贝数据时,基本都是走千兆网卡
拷贝数据到树莓派时,基本都是走百M网卡
容器中的数据全都是走百兆网卡
vi /etc/dhcpcd.conf
interface eth1
metric 100
查看内存占用
ps aux | sort -k4,4nr | head -n 10
查看容器资源占用
docker stats
查看容器磁盘占用
docker system df -v
关闭开启启动项
https://blog.51cto.com/u_12592106/2285563
systemctl list-unit-files --type=service | grep enabled
debian关闭项
avahi-daemon.service
bluetooth.service
ModemManager.service
pppd-dns.service
wpa_supplicant.service
ofono.service
libvirtd.service kvm虚拟机
libvirt-guests.service
ksm.service kvm配套服务
ksmtuned.service
kvm
开启startKvm.sh
systemctl start libvirtd.service systemctl start libvirt-guests.service systemctl start ksm.service systemctl start ksmtuned.service
关闭startKvm.sh.reverse
systemctl start ksmtuned.service systemctl start ksm.service systemctl start libvirt-guests.service systemctl start libvirtd.service
命令
systemctl stop $name; systemctl disable $name;
openwrt
除了科学上网、去广告和基础的,其他全关,剩余项如下
1 root 1620 S /sbin/procd
495 ubus 1220 S /sbin/ubusd
716 root 1596 S /sbin/rpcd -s /var/run/ubus/ubus.sock -t 30
1041 root 1748 S /sbin/netifd
1113 root 1432 S /usr/sbin/odhcpd
1199 root 1240 S udhcpc -p /var/run/udhcpc-eth0.pid -s /lib/netifd/dhcp.script -f -t 0 -i eth0 -x hostname:OpenWrt -C -R -O 121
1384 root 5392 S /usr/sbin/uhttpd -f -h /www -r OpenWrt -x /cgi-bin -u /ubus -t 60 -T 30 -k 20 -A 1 -n 50 -N 100 -R -p 0.0.0.0:80 -p [::]:80 -I cgi-bi
1683 root 8104 S /var/etc/ssrplus/bin/trojan --config /var/etc/ssrplus/tcp-only-ssr-retcp.json
1687 root 8064 S /var/etc/ssrplus/bin/trojan --config /var/etc/ssrplus/tcp-only-ssr-retcp.json
1691 root 8116 S /var/etc/ssrplus/bin/trojan --config /var/etc/ssrplus/tcp-only-ssr-retcp.json
1695 root 8196 S /var/etc/ssrplus/bin/trojan --config /var/etc/ssrplus/tcp-only-ssr-retcp.json
1920 nobody 1492 S /var/etc/ssrplus/bin/pdnsd -c /var/etc/ssrplus/pdnsd.conf
1942 root 1584 S {ssr-switch} /bin/sh /etc/rc.common /usr/bin/ssr-switch start 667s 5
2105 root 1484 S {ssr-monitor} /bin/sh /usr/bin/ssr-monitor 0 1 0 0 0 1
3184 root 1244 S crond -f -c /etc/crontabs -l 8
3365 root 1012 S /tmp/adbyby/adbyby
3366 root 2404 S /tmp/adbyby/adbyby
3537 dnsmasq 5780 S /usr/sbin/dnsmasq -C /var/etc/dnsmasq.conf.cfg01411c -k -x /var/run/dnsmasq/dnsmasq.cfg01411c.pid
6777 root 1240 S sleep 0000667s
6921 root 1248 S sh
11585 root 1240 S sleep 000030s
11586 root 1248 R ps -ef
aria2
关闭rclone
在rclone.sh中设置ENABLE_RCLONE=false
修改宿主机登录logo
技术
screenfetch
linuxlogo
vi ~/.profile
删除掉带linux_logo的行
docker pcdn
参考
https://help.onethingcloud.com/caa9/a0fe/b6b3
https://help.onethingcloud.com/7cb4/3ed5/8907
优化指南 https://help.onethingcloud.com/c165/2037#header-0
https://blog.233so.com/2020/07/onethingpcs-box3/
部署
docker run --name wxedge -d --network macnet --cpu-shares=1000 -m 200M --memory-swap -1 --privileged --ip=192.168.122.8 -v /data/wxedge:/storage:rw --tmpfs /run --tmpfs /tmp onething1/wxedge
限制cpu的使用权限较低,限制内存使用200M以下,交换内存不限制使用
docker-compose
vi docker-compose.yml
version: '3' services: wxedge: image: onething1/wxedge container_name: wxedge restart: always privileged: true volumes: - /data/wxedge:/storage:rw - /etc/timezone:/etc/timezone - /etc/localtime:/etc/localtime tmpfs: - /tmp - /run deploy: resources: limits: cpus: 0.80 memory: 200M reservations: cpus: 0.25 memory: 150M networks: macnet: ipv4_address: 192.168.122.8 networks: macnet: external: true
调整内存大小
docker stop wxedge; docker update -m 200M --memory-swap -1 wxedge; docker start wxedge
收益
大约0.01元/GB,上传速度38Mbps,跑满的话每天大约3~4元
预计每天电费1毛
保留,只保留1个即可
CYK, 优先级1
CY,优先级2
网速限制(配置低,不需要)
git clone https://github.com/magnific0/wondershaper.git && cd wondershaper && make && cp wondershaper /sbin/
wondershaper -a eth0 -u 35000
wondershaper -c -a eth0
手动执行脚本
vi 1.optimize
#!/bin/bash /usr/bin/tvservice -o ip link set eth0 promisc on
关闭HDMI和设置混杂模式,在开机启动rc-local中有时失败,手动设置比较稳妥
vi 2.startWxedge.sh
#!/bin/bash mount /dev/disk/by-uuid/237570ca-4b22-4241-b45f-61c1c4cf15e4 /data/wxedge ls /data/wxedge/ docker start wxedge
usb硬盘有时识别不了,放fstab中的话,甚至造成无法开机。wxedge容器强依赖usb硬盘,wxedge容器必须手动启动,重启后不能自动启动
已把wxedge改为aria2
远程桌面访问本地任意主机(包括不设置默认路由的主机)
问题
如果要被访问的主机只设置了ip地址和掩码,本地其他主机是可以访问的,但远程主机无法通过vpn网络访问。需求:需要远程主机通过vpn网络访问
解决办法
参考
https://blog.csdn.net/u012763794/article/details/103968101
本地的nas上设置规则,转发远程桌面访问的流量
iptables -t nat -A PREROUTING -p tcp --dport 3389 -j DNAT --to-destination 192.168.122.157:3389
iptables -t nat -A POSTROUTING -j MASQUERADE
然后远程桌面访问时,填入nas的ip地址即可
说明:192.168.122.4转发经常出错,192.168.122.8转发较稳定
sshd通过密钥登录
把密钥文件放到~/.ssh目录下
修改公钥名称
cd ~/.ssh; cp id_rsa.pub authorized_keys
修改配置,关闭密码登录
vi /etc/ssh/sshd_config
PasswordAuthentication no
生效
systemctl restart sshd
wifi和蓝牙
https://www.wuliaole.com/2016/07/05/how_to_make_raspberry_disconnect_wifi/
进度
了解春节优惠 2-7
销卡 不用的他省电信卡
预付费的卡,欠费3个月后会自动销卡
预约开通网络 2-7
实名办理 1-15
预存600元,将返100
网络安装 1-16
250安装费
10元安装3个水晶头
返回50红包
再次用电话卡,显示在用
打2分钟电话
用200M流量
返100元话费
玄关路由刷高恪
客厅增加一个老毛子路由器
固件下载地址:http://tanswu.f3322.net:5888
问题
客卧灯
延时大丢包多,路由器看到在线,设备却离线
晾衣架
经常无法通过网络控制,且不可以自己恢复,需重启多次才可能恢复
大厅放置老毛子路由器解决问题
问题
本来应该是千兆的网卡,变成百兆
原因1,1000M网口被其它变成100M的网口影响了
拔掉接100M设备的线路,保证路由网口上接的全是1000M线路
原因2,网线没接好
检查你的网线,有问题就重新接线
docker-compose启动,容器性能变低,甚至造成系统无法启动
常用的容器不用compose启动,用compose启动的最好用完就关
不用compose启动的容器
openwrt
ha
ubuntu
用compose启动的容器
aria2
wxedge
centos
scrapy
debian
others
千兆网卡经常出现'Incorrect MAC received on packet'问题
识别问题
更换了sshd软件还是会出现
pi宿主机和ubuntu容器都会出现
是软件问题的可能性较小
原来用有线网卡时没有问题,更换成千兆网卡才出了问题
解决问题
使用原有线网卡做主网卡,千兆网卡只用于内部传输视频
租房退租
合同期限20210125-20220124
最晚1月24日搬走
租金整月算,未住满整月也不退租金
房租是提前交的,押一付一
已交押金1850
押金退款流程需要大概30个工作日完成退款
退租流程
还原到入住前的状态
联系管家去验收(卫生不合格需要支付相应的卫生费用)
到前台正常办理退租手续
进度
已与小悦悦初步沟通,清楚了退租流程
退租 1-23
退还押金 3-25
入住
传统要求
买5条新裤子,3条摆床头3天
锅里放烧好的木炭绕全屋一圈
入住日子正月十九(阳历2月19日)
进度
全屋的主要物品购置好
与老爸再次敲定入住时间 1-2
从家里拿些木炭来 1-3
买些木炭引燃用的酒精 1-4
买裤子 1-6
接家人朋友来庆祝 2-6
电视
小米86寸 京东7199 5星
120hz
500nit
2g 32g
hdmi2.1
有开机广告
a73 4核
控光分区90
92p3
雾面无反光
雷鸟98寸 京东17449 7星
120hz
hdmi2.1
wifi6
4g 64g
a73 4核
安桥音箱
800nit
无开机广告
196控光分区
屏幕有反光
酷开 86寸 京东7999 5.5星
需求
85寸或以上
显示效果较好
性价比高
售后
质保1年
短期可联系安装师傅 13138298118
长期找小米售后
app
看电视
今日影视
包含直播和点播,直播有多种主题,点播多数据来源
下载地址https://apkcombo.com/zh/jin-ri-ying-shitv-gao-qing-shi-pin-zhui-ju-shen-qi/com.today.player/download/apk
把代理软件设置为完全代理才能下载
猫影视
要自己导入资源,网上有教程
浏览器
jiopages
下载地址: google直接搜索
遥控器操作较好
firefox
下载地址:手机安卓同版本
要鼠标
chrome
下载地址:手机安卓同版本
要鼠标
k歌
电视ktv
免费
全民k歌
唱吧
ui
参考 https://miuiver.com/ad-blocking-on-mitv/
安装adb
apt-get install -y android-tools-adb
adb start-server
adb connect <ip>
adb shell
禁用原ui
pm disable-user com.mitv.tvhome
pm disable-user com.xiaomi.mitv.systemui
开启原ui
pm enable com.mitv.tvhome
沙发桌面
会经常进入安全模式
atlauncher pro
印象天气插件
软件商店
蚂蚁市场
沙发管家
系统
gsm、gsf
安装不成功,很麻烦,放弃了
知识
adb
开机永久切换成第三方桌面
pm uninstall --user 0 com.mitv.tvhome
去除盒子的广告,谨慎
adb shell pm uninstall --user 0 mitv.service
为了避免日后更新被还原桌面,可以把系统更新删掉(喜欢升级官方ROM的朋友请慎重!)
adb shell pm uninstall --user 0 com.xiaomi.mitv.upgrade
进度
鉴于电视柜只有2.2米长,购买98寸电视非常难看,已无可能买98寸电视
适合的电视尺寸<=86寸
关注小米86寸电视或各品牌85寸电视,低于6000可入手
买了小米86寸电视,6999机体+400安装费
已收到及安装
问题
有线连接,网速只有100M
原因是有线网卡非千兆网卡
拔掉有线网卡,使用无线连接
有线100M已经够用了,目前的4K视频一般用不满100M
水过户
物业代交然后交给物业
水还没有移交,可以正常使用,到时候会统一通知大家
隐形防盗网
小物件
洗手机
小米67元
美的69元
砧板刀架 热水器送
扫地机器人 暂不需要
科沃斯N9+
视觉导航有点笨
自动回基站清理很好
扫地时间2小时左右
云鲸10
扫地时间要5小时左右
激光导航聪明
进度
考虑东西很多脚,扫地机不太适用,不要了
拖把机 空净送蒸汽拖把
门降噪挡板
砧板刀架
暂时用送的款,需要重新买砧板时再买1个美的砧板刀架
脏衣篓
用桶
医药箱
卫生间架子
已买
五步梯
联系客服获取10个铝合金衣挂
收到衣挂
砧板
生菜板
大小 20*30~40*60之间
2~3人 28cm
4~5人 32cm
优选 28*45
京造 黑檀木
45*30*3
139元
京造 黑檀木
40*27*2.5
89元
一般消毒刀架尺寸较小,25以上都放不下
使用
重切
剁肉
切骨
作用
生肉
青菜
熟食板 PP
现有的砧板
使用
轻切
适合
水果
熟肉
非煮的青菜
知识
一个菜板只用一面的话,建议上网买几个那种垫脚,粘在不用的那一面,这样就不会接触台面,避免了这一面发霉的几率,很多时候我们常用的一面保养的都不错,往往是不常用的一面容易发霉。
黄色 待处理 浅黄 要处理但不急 白色 不用处理或暂不用 绿色 基本已处理完成 青色 确认已处理完成
知识
前置净水器
新小区无需前置净水器
前置净水器可能是藏污纳垢养细菌的地方
厨霸
月月:抽风机也很凉爽了,未必需要
厨霸比直接安装风扇好
电梯尺寸
桥厢长 150
高235
宽160
门宽90
门高210
对角245
工具
冲击钻
玻璃钻头 6mm
佛兰仕冲击钻 119
转锯钻头
自攻钉
6mm 40pcs
五步梯
ab胶水 已收货
改线公牛插头