口腔种植学
第一章 概论
第二章 种植学基础
第三章 口腔种植治疗计划
第四章 牙种植外科技术
第五章 美学区的牙种植
第六章 种植义齿修复
第七章 种植义齿制作技术(略)
第八章 牙种植的骨增量技术
第九章 口腔种植的并发症及处理
第十章 种植义齿维护
第十一章 数字化口腔种植技术
第十二章 种植支抗植入技术
问题
细节
小米智能厨具的使用
步骤/目录:
1.厨具价格及购买
2.食品制作过程
3.通用食品制作过程
如何压缩图片
步骤/目录:
1.需求介绍
2.ffmpeg
3.tinypng
4.squoosh
(1)Node.js
(2)克隆仓库并安装运行
a.本地运行网页服务器
b.运行桌面版
c.squoosh-cli
(3)squoosh的使用
5.修改vimg_processor_multi
Samba, ftp与webdav
步骤/目录:
0.Samba的陷阱
1.需求介绍
2.Samba与frp
3.ftp
4.webdav
AX6S路由器固化SSH
1.需求介绍
2.解锁SSH
(1)降回开发版固件
(2)连接SSH
3.固化SSH
(1)备份 Bdata 和 crash 分区
(2)修改 Bdata 和 crash
(3)刷入 Bdata 和 crash
(4)切换系统版本
(5)稳定版固件固化SSH
4.其他设置
附录:小米路由器修复工具的使用
笔记本安装CentOS
步骤/目录:
1.烧录镜像与安装界面
2.安装CentOS
3.初始化操作
(0)静态局域网IP
(1)合盖设置
(2)基础设置
(3)ufw
(4)lm_sensors与watchdog
(5)安全性设置
(6)python3
(7)修改DNS
(8)docker
(9)其他
Python,爬虫与深度学习(17)——电影的信息爬取、下载与处理(二)
步骤/目录:
1.需求介绍
2.电影压缩
3.本地视频入库
4.ffmpeg加速
(1)显卡加速
(2)多电脑加速
Python,爬虫与深度学习(16)——电影的信息爬取、下载与处理(一)
步骤/目录:
1.需求介绍
2.准备工作
(0)安装python库
(1)创建scrapy项目
(2)创建并运行mysql
(3)创建并运行redis
(4)创建python自建库
a.log.py
b.redis.py
c.mysql.py
d.interaction.py
e.torrent_parser.py
f.其他
3.scrapy项目的修改
(1)items.py
(2)middlewares.py
(3)pipelines.py
(4)settings.py
(5)爬虫
4.使用说明
路由器与DDNS
步骤/目录:
1.DDNS简介
2.获取域名
3.配置路由器
4.配置端口转发
5.配置光猫
6.DDNS的安全性
Python,爬虫与深度学习(15)——番外篇(四)Redis数据库与python
步骤/目录:
1.Redis简介与安装
2.redis的数据结构
(1)string
(2)list
(3)set
(4)hash
(5)zset
(6)HLL
3.redis的一些命令
4.redis事务
5.TTL(time to live)
6.排序
7.发布/订阅
8.管道
9.redis GEO
10.其他
Python,爬虫与深度学习(14)——scrapy详解(二)
本文较长,属于系统性总结,可作为使用手册查阅。
Python,爬虫与深度学习(13)——scrapy详解(一)
本文较长,属于系统性总结,可作为使用手册查阅。
Python,爬虫与深度学习(12)——sitemap与robots.txt
步骤/目录:
1.介绍
(1)sitemap
(2)robots.txt
2.使用scrapy生成sitemap
Python,爬虫与深度学习(11)——scrapy中settings的可选项
步骤/目录:
1.settings的指定方法
2.setting中的常用设置与默认值
(1)爬虫效率相关
(2)字典类设置
(3)log相关
(4)其他的重要设置
(5)其他的不重要设置
Python,爬虫与深度学习(10)——scrapy+mysql构建ipool
步骤/目录:
1.运行mysql数据库与准备工作
2.自建库
3.创建、修改、运行scrapy项目
(1)其他配置
(2)爬虫配置
a.a2u.py
b.clarketm.py
c.cool_proxy.py
d.free_proxy_list.py
e.ip3366.py
f.ipaddress.py
g.jiangxianli.py
h.kuaidaili.py
i.pubproxy.py
j.rmccurdy.py
k.sunny9577.py
l.TheSpeedX.py
(3)运行爬虫
4.验证ip
5.日常使用
Python,爬虫与深度学习(9)——初识scrapy
步骤/目录:
1.应用场景与scrapy架构
2.安装scrapy与创建项目
3.使用scrapy爬取http://www.ip3366.net/free/
(1)创建项目与修改框架
(2)自建库文件的内容
(3)运行爬虫
Python,爬虫与深度学习(8)——selenium的使用
步骤/目录:
1.应用场景
2.准备工作
3.在个人库中添加selenium相关代码
4.selenium个人库使用范例
Python,爬虫与深度学习(7)——建立自己的库
步骤/目录:
1.创建文件夹及添加路径
2.自建库的编写
(1)log.py
(2)mysql.py
(3)spider.py
(4)interaction.py
Python,爬虫与深度学习(6)——爬虫详解(二)构建自己的ip池(简易版)
步骤/目录:
1.需求分析
2.mysql建表
3.网页请求分析
4.爬虫编写
(0)安装所需模块
(1)mysql存取
(2)爬虫主体编写
(3)其他爬虫补充
(4)实际运行
(5)检测爬取的ip
5.总结与改进