导图社区 计算机网络
这是一篇关于计算机网络的思维导图,主要内容包括:4.信息安全,5.PT中的网络搭建,6.网络强国与网络安全,3.搜索引擎,2.计算机网络基础,1.计算机网络基础。
编辑于2024-08-30 20:29:48计算机网络
1.计算机网络基础
1.计算机网络基础-网络分类和网络拓扑结构
计算机网络
将若干独立的计算机通过一定的方式连接起来,实现资源共享和数据通信。
网络的分类
根据覆盖的范围和规模可以将网络分为三类
局域网
城域网
广域网
联局域网的必备元素
带网卡的计算机
连接线(传输介质)
连接设备
如何连接
网络拓扑结构
拓扑这个名词是从几何学中借用来的。而网络拓扑是指用连接介质、连接设备和计算机等如何互连的物理布局。网络的拓扑结构有很多种。
环形
总线型
星型
树形
2.计算机网络基础-组网
星型网络的连接设备
集线器
对接收到的信号进行再生整形放大,以扩大网络的传输距离,同时把所有节点集中在以它为中心的节点上。(共享带宽)
交换机
功能与集线器类似,但各个用户独占带宽,性能更高
3.计算机网络基础-网络协议
网络协议
一般而言,“协议”是为交流信息的双方能够正确实现信息交流而建立的一套规则、标准或约定。
IP协议
IP地址是为网络上计算机分配的网络地址。
IP地址
A类
B类
C类
子网掩码
没有子网掩码的IP地址是没有任何意义的
子网掩码是为了进行子网构建
主机通信时,通过子网掩码与IP地址的逻辑运算,分离出网络地址和主机地址
当没有划分子网时,A类IP地址的默认子网掩码是255.0.0.0;B类IP地址的子网掩码是255.255.0.0;C类IP地址的子网掩码是255.255.255.0
IPv6地址
IPv6地址为128位长,通常写作8组,每组为四个十六进制数的形式
2.计算机网络基础
1.计算机网络基础-网络应用
共享硬件
共享软件
共享上网
2.计算机网络基础-数据交换技术
数据交换技术
电路交换
报文交换
分组交换
在发送端,先把较长的报文划分成较短的、固定长度的数据段。
每一个数据段前面添加上首部构成分组
首部由目的地址信息和分组序号组成
分组交换网以“分组”作为数据传输单元。依次把各分组发送到接收端
接收端收到分组后剥去首部还原成报文。
最后,在接收端把收到的数据恢复成为原来的报文。
计算机网络如何工作
将发送给服务器的网页请求信息分组成较短、固定长度的数据包
通过不同连接设备中转,将数据包传送到对应的服务器
服务器响应请求,发回请求的页面,页面信息同样被分成数据包,返回给用户
网址与IP地址
域名
域名是Internet上某一台计算机或计算机组的名称,用于在数据传输时标识计算机的电子方位,有时也指地理位置
域名服务器DNS
域名服务器∶实现IP地址和域名之间的转换的计算机,存在于世界各地。
网页html
HTML源代码由嵌套标签组成
6.网络强国与网络安全
5.PT中的网络搭建
4.信息安全
威胁信息安全的根源。。。。
不同用户的信息安全需求
计算机病毒
指编制或者在计算机程序中插入的破坏计算机功能或者破坏数据,影响计算机的使用并且能够自我复制的一组计算机指令或者程序代码。
特征
非授权性、寄生性、传染性、潜伏性、破坏性、可触发性
分类
传统病毒
引导型病毒:感染硬盘的系统引导扇区
文件病毒:感染计算机中的文件(如:COM,EXE,DOC等)
蠕虫病毒
指利用网络进行复制和传播以独立智能程序形式存在的计算机病毒
木马
如何保护自己的信息
验证码
CAPTCHA :Completely Automated Public Turing test totell Computers and Humans Apart(全自动区分计算机和人类的图灵测试),是一种区分用户是计算机和人的公共全自动程序
验证码设计思想
计算机先是产生一个随机的字符串,然后用程序把这个字符串的图像进行随机的污染扭曲,再显示给显示器前的人或者机器。凡是能够辨识这些字符的,即为人类。
防止数据信息丢失
数据备份
操作系统备份
常用文件备份
杀毒软件
防火墙技术
防火墙是一种安全隔离技术,是在两个网络通讯时执行的一种访问控制手段。它允许被用户“同意”的人和数据进入网络,同时将不被用户“不同意”的人和数据拒之门外,最大限度地阻止网络中的黑客访问不允许访问的网络。
网络行为规范
3.搜索引擎
搜索引擎是一个用户定义的信息聚合系统,通过用户输入的查询关键词,搜索引擎推测用户的查询意图,然后快速地返回相关的查询结构供用户选择。
分类
目录式搜索引擎
全文搜索引擎
原搜索引擎
以全文搜索引擎为例
下载系统
下载系统是搜索引擎的基础,搜索的数据均来自于下载系统的工作。
爬虫(Crawler )
通过下载一个网页,分析其中的链接,继而漫游到其他链接指向的网页,循环往复。
根据万维网的结构特点,爬虫的策略
起始结点:选择蝴蝶结的左部,或者中部的网页,这样可以得到尽可能完整的遍历效果。
遍历的方法:多采用广度优先的遍历方式,但由于万维网错综复杂,任选一个抓取路线不能保证总是最优,采用“深度策略”控制抓取深度。
万维网的特点
将万维网定义为一个连通图,网页为结点,链接为边,Broder通过Random-start BFS实验数据,得到下面的结论。
蝴蝶结型的万维网
蝴蝶结的中部(SCC,strongly connected component)
这类网页彼此相连,任意去掉有限个网页,不会影响其连通度。
冬蝴蝶结的左部(IN)
·这类网页指向中心部分,称为目录型网页,通常是导航网页。
蝴蝶结的右部(OUT)
这类网页被中心部分指向,称为权威性网页。
蝴蝶结的须脚(Tendrils)
这类网页表现为从左部链出到其他网页,或者其他网页链入右部或从左部直接链入右部,以及少部分与中部、左部或右部都没有链接。
分析系统
分析系统主要完成:信息抽取、网页消重、中文分词和PageRank计算。
网页结构化:是根据搜索的需要,将半结构化的网页按照基本属性依次抽取,最后打包出一个网页对象。
抽取出网页中有价值的属性:锚文本、标题、正文、正向链接等。
利用标签,如title,可以很容易得到标题:建立标签树
得到正文的方法
识别正文:3类文本块(主题型文本块、目录型文本块、图片型文本块 )
利用投票算法判断哪个文本块是正文。利用统一的规则,为每个 文本块打分,得分最高可能性越大
将多个文本块组合成一个正文:深度优先遍历标签树
网页查重
从系统效率、检索质量上看,重复网页都是有害的
网页查重的目标:消除4中相似情况
内容和格式上完全相同(利用网页签名)
内容相同,格式不同
部分重要的内容相同并且格式相同
部分重要的内容相同,但格式不同
将网页转换为具有标题和正文的文档,进行文档查重
特征抽取:单特征(I-Match算法)和多特征(Shingle算法)
PageRank网页排名算法
核心思想
如果一个网页被很多其他网页链接到的话说明这个网页比较重要也就是PageRank值会相对较高
如果一个PageRank值很高的网页链接到一个其他的网页,那么被链接到的网页的PageRank值会相应地因此而提高
PageRank算法预先给每个网页一个PR值(PageRank值)由于PR值物理意义上为一个网页被访问概率,所以一般是1/N,其中N为网页总数
索引系统
查询系统
直接面对用户,接收用户的查询请求后,通过检索、排序及摘要提取等计算,将计算结果组织成搜索结果页返回给用户。
搜索引擎采用了布尔模型和向量空间模型结合进行信息检索。
布尔模型:只能判断关键字是否存在,解决有还是没有问题
向量模型:将查询词和文档按照关键词的维度分别量化,计算出文档与查询词的相似度。