在阿帕网(ARPA)产生运作之初,通过接口信号处理机实现互联的电脑并不多,大部分电脑相互之间不兼容,在一台电脑上完成的工作,很难拿到另一台电脑 上去用,想让硬件和软件都不一样的电脑联网,也有很多困难。当时美国的状况是,陆军用的电脑是DEC系列产品,海军用的电脑是Honeywell中标机 器,空军用的是IBM公司中标的电脑,每一个军种的电脑在各自的系里都运行良好,但却有一个大弊病:不能共享资源。   当时科学家们提出这样一个理念:“所有电脑生来都是平等的。”为了让这些“生来平等”的电脑能够实现“资源共享”就得在这些系统的标准之上,建立一种大家共同都必须遵守的标准,这样才能让不同的电脑按照一定的规则进行“谈判”,并且在谈判之后能“握手”。   在确定今天因特网 各个电脑之间“谈判规则”过程中,最重要的人物当数瑟夫(Vinton G.Cerf)。正是他的努力,才使今天各种不同的电脑能按照协议上网互联。瑟夫也因此获得了与克莱因罗克(“因特网之父”)一样的美称“互联网 之父”。   瑟夫从小喜欢标新立异,坚强而又热情。中学读书时,就被允许使用加州大学洛杉矶分校的电脑,他认为“为电脑编程序是个非常激动人心的事,…只要把程序编好,就可以让电脑做任何事情。”1965年,瑟夫从斯坦福大学毕业到IBM的一家公司当系统工程师  工作没多久,瑟夫就觉得知识不够用,于是到加州大学洛杉矶分校攻读博士,那时,正逢阿帕网的建立,“接口信号处理机”(IMP)的研试及网络测评中心的建 立,瑟夫也成了著名科学家克莱因
罗克手下的一位学生。瑟夫与另外三位年轻人(温菲尔德、克罗克、布雷登)参与了阿帕网的第一个节点的联接。此后不 久,BBN公司对工作中各种情况发展有很强判断能力、被公认阿帕网建成作出巨大贡献的鲍伯·卡恩(Bob Kahn)也来到了加州大学洛杉矶分校。在那段日子里,往往是卡恩提出需要什么软件,而瑟夫则通宵达旦地把符合要求的软件给编出来,然后他们一起测试这些 软件,直至能正常运行。   当时的主要格局是这样的,罗伯茨提出网络思想设计网络布局,卡恩设计阿帕网总体结构,克莱因罗 克负责网络测评系统,还有众多的科学家、研究生参与研究、试验。699月阿帕网诞生、运行后,才发现各个IMP连接的时候,需要考虑用各种电脑都认可的 信号来打开通信管道,数据通过后还要关闭通道。否则这些IMP不会知道什么时候应该接收信号,什么时候该结束,这就是我们现在所说的通信“协议”的概念。 70考虑了互联互通和资源共享的问题12月制定出来了最初的通信协议由卡恩开发、瑟夫参与的“网络控制协议”(NCP),但要真正建立一个共同的标准很不容易,7210月国际电脑通 信大会结束后,科学家们都在为此而努力。   “包切换”理论为网络之间的联接方式提供了理论基础。卡恩在自己研究的基础上,认识到只有深入 理解各种操作系统的细节才能建立一种对各种操作系统普适的协议,73年卡恩请瑟夫一起考虑这个协议的各个细节,他们这次合作的结果产生了目前在开放系统下 的所有网民和网管人员都在使用的“传输控制协议”(TCPTransmissio
n-Control Protocol)和“因特网协议”(IPInternet Protocol)即TCP/IP协议。   通俗而言:TCP负责发现传输的问题,一有问题就发出信号,要求重新传输,直到所有数据安全正 确地传输到目的地。而IP是给因特网的每一台电脑规定一个地址。197412月,卡恩、瑟夫的第一份TCP协议详细说明正式发表。当时美国国防部与三个 科学家小组签定了完成TCP/IP的协议,结果由瑟夫领衔的小组捷足先登,首先制定出了通过详细定义的TCP/IP协议标准。当时作了一个试验,将信息包 通过点对点的卫星网络,再通过陆地电缆,再通过卫星网络,再由地面传输,贯串欧洲和美国,经过各种电脑系统,全程9.4万公里竟然没有丢失一个数据位,远 距离的可靠数据传输证明了TCP/IP协议的成功。   198311日,运行较长时期曾被人们习惯了的NCP被停止使用,TCP/IP协议作为因特网上所有主机间的共同协议,从此以后被作为一种必须遵守的规则被肯定和应用。
第一阶段 诞生阶段(计算机终端网络)
20世纪60年代中期之前的第一代计算机网络是以单个计算机为中心的远程联机系统。典型应用是由一台计算机和全美范围内2000多个终端组成的飞机订票系统。终端是一台计算机的外部设备包括显示器和键盘,无CPU和内存。随着远程终端的增多,在主机前增加了前端机(
FEP)。当时,人们把计算机网络定义为“以传输信息为目的而连接起来,实现远程信息处理或进一步达到资源共享的系统”,但这样的通讯系统已具备网络的雏形。早期的计算机为了提高资源利用率,采用批处理的工作方式。为适应终端与计算机的连接,出现了多重线路控制器。
第二阶段 形成阶段(计算机通信网络)
20世纪60年代中期至70年代的第二代计算机网络是以多个主机通过通信线路互联起来,为用户提供服务,兴起于60年代后期,典型代表是美国国防部高级研究计划局协助开发的ARPANET。主机之间不是直接用线路相连,而是由接口报文处理机(IMP)转接后互联的。IMP和它们之间互联的通信线路一起负责主机间的通信任务,构成了通讯子网。通讯子网互联的主机负责运行程序,提供资源共享,组成资源子网。这个时期,网络概念为“以能够相互共享资源为目的互联起来的具有独立功能的计算机之集合体”,形成了计算机网络的基本概念。 ARPA网是以通信子网为中心的典型代表。在ARPA网中,负责通信控制处理的CCP称为接口报文处理机IMP(或称结点机),以存储转发方式传送分组的通信子网称为分组交换网
第三阶段 互联互通阶段(开放式的标准化计算机网络)
20世纪70年代末至90年代的第三代计算机网络是具有统一的网络体系结构并遵守国际标准的开放式和标准化的网络。ARPANET兴起后,计算机网络发展迅猛,各大计算机公司相继推出自己的网络体系结构及实现这些结构的软硬件产品。由于没有统一的标准,不同厂商的产品之间互联很困难,人们迫切需要一种开放性的标准化实用网络环境,这样应运而生了两种国际通用的最重要的体系结构,即TCP/IP体系结构和国际标准化组织的OSI体系结构。
第四阶段 高速网络技术阶段(新一代计算机网络)
20世纪90年代至今的第四代计算机网络,由于局域网技术发展成熟,出现光纤及高速网络技术,多媒体网络,智能网络,整个网络就像一个对用户透明的大的计算机系统,发展为以Internet为代表的互联网。
1 从单一的APRANET发展为互联网
1969年,创建的第一个分组交换网 ARPANET 只是一个单个的分组交换网(不是互联网)20世纪70年代中期,ARPA开始 研究多种网络互连的技术,这导致互联网的出现。1983年, A
RPANET分解成两个:一个实验研究用的科研网ARPANET(人们常把1983年作为因特网的诞生之日),另一个是军用的MILNET1990年, ARPANET正式宣布关闭,实验完成。
2 建成三级结构的因特网
1986 年,NSF 建立了国家科学基金网NSFNET。它是一个三级计算机网络,分为主干网、地区网和校园网。1991 年,美国政府决定将因特网的主干网转交给私人公司来经营,并开始对接入因特网的单位收费。1993 年因特网主干网的速率提高到 45Mb/s
3 建立多层次ISP结构的因特网
1993年开始,由美国政府资助的 NSFNET逐渐被若干个商用的因特网主干网(即服务提供者网络)所替代。用户通过因特网提供者ISP上网。1994 年开始创建了 4 个网络接入点 NAP(Network Access Point),分别由 4 个电信公司。1994 年起,因特网逐渐演变成多层次ISP结构的网络。1996年,主干网速率为155 Mb/s(OC-3)1998年,主干网速率为2.5 Gb/s(OC-48)
 
开放式系统互联模型是一个参考标准,解释协议相互之间应该如何相互作用。TCP/IP协议是美国国防部发明的,是让互联网成为了目前这个样子的标准之一。开放式系统互联模型中没有清楚地描绘TCP/IP协议,但是在解释TCP/IP协议时很容易想到开放式系统互联模型。两者的主要区别如下:
  ·TCP/IP协议中的应用层处理开放式系统互联模型中的第五层、第六层和第七层的功能。
·TCP/IP协议中的传输层并不能总是保证在传输层可靠地传输数据包,而开放式系统互联模型可以做到。TCP/IP协议还提供一项名为UDP(用户数据报协议)的选择。UDP不能保证可靠的数据包传输。给出OSI七层模型与TCP/IP五层模型
七层模型
OSI中的层功能
TCP/IP协议族
应用层
文件传输,,文件服务,虚拟终端
TFTPHTTPSNMPFTPSMTPDNSTelnet
表示层
数据格式化,代码转换,数据加密
没有协议
会话层
解除或建立与别的接点的联系
没有协议
传输层
提供端对端的接口
TCPUDP
网络层
为数据包选择路由
IPICMPRIPOSPFBGPIGMP
数据链路层
传输有地址的帧以及错误检测功能
SLIPCSLIPPPPARPRARPMTU
物理层
以二进制数据形式在物理媒体上传输数据
ISO2110IEEE802IEEE802.2
五层模型的协议
应用层
传输层 四层交换机、也有工作在四层的路由器
网络层 路由器、三层交换机
数据链路层 网桥(现已很少使用)、以太网交换机(二层交换机)、网卡(其实网卡是一半工作在物理层、一半工作在数据链路层)
物理层 中继器、集线器、还有我们通常说的双绞线也工作在物理层
端到端是网络连接。网络要通信,必须建立连接,不管有多远,中间有多少机器,都必须在两头(源和目的)间建立连接,一旦连接建立起来,就说已经是端到端连接了,即端到端是逻辑链路,这条路可能经过了很复杂的物理路线,但两端主机不管,只认为是有两端的连接,而且一旦通信完成,这个连接就释放了,物理线路可能又被别的应用用来建立连接了。TCP就是用来建立这种端到端连接的一个具体协议,SPX也是。
The End-TO-End Arguments in System Design》这篇论文提出了一个著名的“端到端原则”,
文章考虑的一个重要问题是如何在功能之间进行合适的划分,如何将功能安置到合适的层中。通讯系统设计的主要目标是要让传输中各种错误发生的概率降低到一个可以接受的水平。对于一个通讯可靠系统,它的出错率应该是很低的,而且只需通过简单的多次传输就可以实现系统的目标。当然也可以采用“端到端确认重传”来实现,这时就要考虑这些功能在系统中什么地方实现,即层次上的考虑。设置功能时要考虑两个因素的权衡:代价和性能。通常底层的功能可以提高系统的性能(如底层的校验机制),但全局的代价较大(overall cost)。
Rethinking the Design of the Internet-The end to end arguments vs. the brave new world》这篇论文是MIT教授David Clark2001年发表在ACM上的另一篇关于重新思考Internet设计原则的重要论文。20多年前他提出的“End-to-End Argument”表述为:“一种应用功能只有当其知识和帮助置于通信系统的边缘才能完全和正确地实现,因此将提出这种应用功能作为通信系统本身的性质是不可能的。”当时提出这种论断的依据是网络是不可靠的,网络只做最通用的数据传输,而最终检查是否正确执行只能在处于传输终端的应用层。这样一种设计原则的优点很多,解决了当时很多难题,这在前面已有论述。可是到了今天,这样一种设计原则是否仍然适用呢?“端到端”原则是绝对可靠的吗?这正是作者在这篇文章中思考
的问题。
端到端了理论说明有些功能(比如提供可靠/有序的服务)不应该在系统的较低层提供,除非能在低层完全正确的被实现,而且花费的代价不是太大。这条原则促使了TCP协议的诞生,解决了如何在一个不可靠的网络通信信道上进行了可靠的网络传输服务。
从理解的角度来说,遵循端到端原则的网络设计思路应该是这样的:如果一种机制能在端系统实现,那么就不应该将其在网络核心中实现,网络核心应该尽可能提供通用的服务,而具体应用相关的功能应该避免在网络核心中出现。端到端原则旨在让客户机承担网络应用的开发和创新,而让网络本身保持相对简单。这种相对简单的核心网络模型也是网络能够在上层变换实现不同应用的技术基础,确保网络能够被位于边缘的用户扩展新的应用功能。端到端原则的显著好处是保持了因特网的伸缩性、通用性和开放性。具体说,其一,核心网的复杂性得以降低。其二,网络容易支持新应用程序。其三,增加了网络应用的可靠性。
基于端到端原则的因特网创新模式使用户能够自由发布自己的新的网络应用功能,其他相关的用户可以选择使用这种应用功能,也可以选择不使用这种应用功能。

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系QQ:729038198,我们将在24小时内删除。