当前位置: 首页 > article >正文

【2024 CCF编程能力等级认证(GESP)C++ 】 计算机基础知识

目录

  • 1. 引言
  • 2. 计算机系统结构
    • 2.1 中央处理器(CPU - Central Processing Unit)
      • 2.1.1 运算器
    • 2.1.2 控制器
    • 2.1.3 性能指标
    • 2.2 存储器
    • 2.3 输入设备
    • 2.4 输出设备
  • 3. 计算机系统层次结构
  • 4. 操作系统
    • 4.1 操作系统分类
    • 4.2 操作系统常见操作
      • 4.2.1 基本开关机操作
      • 4.2.2 桌面和任务栏操作
      • 4.2.3 文件管理
      • 4.2.4 应用程序管理
      • 4.2.5 窗口管理
      • 4.2.6 系统设置和个性化
      • 4.2.7 常用快捷键
      • 4.2.8 其他高级操作
  • 5. 计算机发展历程及应用
    • 5.1 世界上第一台计算机之争
    • 5.2 计算机的发展历程
    • 5.3 微处理器的发展历程
    • 5.4 个人计算机的发展历程
  • 6. 计算机在现代社会中的常见应用
    • 6.1 办公自动化
    • 6.2 教育行业
    • 6.3 娱乐产业
    • 6.4 金融行业
    • 6.5 医疗健康领域
    • 6.6 智能制造领域

1. 引言

在踏入C++编程世界的门槛之前,深入理解计算机基础知识是不可或缺的。这不仅有助于我们更好地编写高效、稳定的程序,还能让我们在解决复杂问题时拥有更广阔的视野。

本文将围绕C++一级认证所需的计算机基础知识展开,重点介绍计算机的软硬件组成、操作系统基本概念及常见操作,以及计算机的发展历程与现代应用。

2. 计算机系统结构

计算机系统是由硬件软件两部分组成,用于存储、检索和处理数据,包括中央处理器(CPU)、存储器、输入/输出设备等。

根据冯·诺依曼结构,计算机由五大基本组成部件组成,分别是:运算器、控制器、存储器、输入设备和输出设备。冯·诺依曼结构将指令和数据存储在同一个存储器中,并使用同一套总线进行数据传输。

根据哈佛结构,计算机由‌CPU、程序存储器和数据存储器组成,采用不同的总线。提供了较大的存储器带宽,使得数据的移动和交换更加方便,尤其适合于提供较高的数字信号处理性能。哈佛结构的‌微处理器通常具有较高的执行效率,能够预先读取下一条指令,减轻了程序运行时的访存瓶颈。

在这里插入图片描述

2.1 中央处理器(CPU - Central Processing Unit)

中央处理器(Central Processing Unit,简称CPU)作为计算机系统的运算和控制核心,是信息处理、程序运行的最终执行单元。CPU自产生以来,在逻辑结构、运行效率以及功能外延上取得了巨大发展。

2.1.1 运算器

运算器是计算机中执行各种算术和逻辑运算的部件,包括加、减、乘、除四则运算,与、或、非、异或等逻辑操作,以及移位、比较和传送等操作。

  • 组成部分
    算术逻辑单元(ALU):是运算器的核心部件,负责执行算术和逻辑运算。ALU的基本功能包括加、减、乘、除四则运算,以及与、或、非、异或等逻辑操作。
    累加器:专门存放算术或逻辑运算的一个操作数和运算结果的寄存器。能进行加、减、读出、移位、循环移位和求补等操作。
    状态寄存器:用来存放体现当前指令执行结果的各种状态信息(如有无进位、有无溢出、结果正负、结果是否为零等)和控制信息(如允许中断、跟踪标志等)。
    通用寄存器组:用于保存程序的中间结果,为随后的指令快速提供操作数,从而避免把中间结果存入内存再读取的操作。

2.1.2 控制器

控制器是指按照预定顺序改变主电路或控制电路的接线和改变电路中电阻值来控制电动机或其他设备的启动、调速、制动和反向的主令装置。在计算机系统中,控制器是发布命令的“决策机构”。

  • 组成部件
    控制器的组成部件主要包括以下几个方面:
    程序计数器(PC):用于存储下一条要执行的指令的地址。
    指令寄存器(IR):用于存放当前正在执行的指令。
    指令译码器:用于对指令进行译码,即分析指令的操作码和操作数,确定执行的具体操作。
    时序产生器:用于产生控制信号的时序,确保各个部件在正确的时间点执行操作。
    操作控制器:根据指令译码器的输出和时序产生器的时序信号,生成相应的控制信号,控制各个部件的工作状态和操作顺序。

此外,控制器还包括寄存器(如累加器、状态寄存器等)、时钟(提供稳定的时钟信号,同步各个部件的工作)等部件。

2.1.3 性能指标

CPU的性能指标主要包括主频、外频、倍频、前端总线频率、CPU的位和字长、缓存、CPU扩展指令集等。这些指标决定了CPU的运算速度、数据处理能力和兼容性等方面。

  • 主频
    主频即CPU的时钟频率,计算机的操作在时钟信号的控制下分步执行,每个时钟信号周期完成一步操作,时钟频率的高低在很大程度上反映了CPU速度的快慢。

  • 外频
    CPU外频是指CPU与主板上的外部总线之间的数据传输速度,通常以兆赫兹(MHz)为单位表示。CPU外频决定了数据在CPU和其他系统组件之间传输的速率。

  • 倍频
    CPU倍频,全称是倍频系数。CPU的核心工作频率与外频之间存在着一个比值关系,这个比值就是倍频系数,简称倍频。 理论上倍频是从1.5一直到无限的,但需要注意的是,倍频是以0.5为一个间隔单位。


  • CPU的位‌指的是处理器能够处理的数据位数,这是衡量CPU性能的一个重要指标。
    CPU的位(bit)是处理和存储数据的最小单位。

  • 字长
    CPU的字长是指它在单位时间内能够一次性处理的二进制数字的位数。
    所以能处理字长为8位数据的CPU通常就叫8位的CPU。
    CPU的字长可以是8位、16位、32位或64位。

  • 缓存
    CPU缓存(Cache Memory)是计算机系统中一个至关重要的组成部分,它位于CPU与内存之间,作为两者之间的临时存储器。以下是对CPU缓存的详细解析:

    • 定义:CPU缓存是一种高速的存储器,用于存储CPU即将访问的数据和指令。

    • 作用:减少CPU访问内存所需的时间,从而提高系统的整体性能。CPU缓存通过存储最近访问的数据和指令,减少了CPU对内存的依赖,从而提高了处理速度和效率。
      分类与结构

    • CPU缓存的多层结构:一级缓存(L1 Cache)、二级缓存(L2 Cache)和三级缓存(L3 Cache)

      • 一级缓存(L1 Cache):

        定义:CPU内部最接近核心的部分,是CPU最先访问的缓存。它分为数据缓存(D-Cache)和指令缓存(I-Cache)两部分,分别用于存储数据和指令。
        特点:容量最小(一般在几十KB到几百KB之间),但访问速度最快,几乎与CPU的运行速度相匹配。
        作用:极大地减少CPU对内存的访问次数,提高数据读取速度,是CPU性能提升的关键因素之一。

      • 二级缓存(L2 Cache):
        定义:位于CPU和一级缓存之间,作为一级缓存和内存之间的缓冲。
        特点:容量大于一级缓存但小于内存,访问速度略慢于一级缓存但远大于内存。其容量通常从几百KB到几MB不等。
        作用:进一步减少CPU对内存的访问次数,提高系统的整体性能。当CPU在一级缓存中未找到所需数据时,会转向二级缓存进行查找。

      • 三级缓存(L3 Cache):
        定义:CPU缓存体系中的最后一层,位于二级缓存和内存之间。
        特点:容量最大(可以从几MB到几十MB不等),但访问速度相对较慢。然而,与内存相比,其访问速度仍然具有显著优势。
        作用:主要用于缓解二级缓存和内存之间的速率差,进一步减少CPU对内存的访问次数。在拥有三级缓存的CPU中,只有极少数数据需要从内存中直接读取。

查看主频有以下两种方式:
方法一:Ctrl+Shift+Esc 键打开任务管理器->性能->CPU->基准速度
方法二:通过系统信息查看

查看外频和倍频有以下两种方式:
方法一:下载AIDA软件,可在超频选项中查看倍频
方法二:在电脑启动时,按下键盘上的Delete键进入BIOS设置界面。在BIOS设置界面中,您可以找到与外频相关的设置选项。具体位置可能因主板和BIOS版本而异,但通常可以在“Advanced”(高级设置)或“Performance”等菜单下的“CPU Frequency”、“Turbo Boost”或类似的名称中找到。

2.2 存储器

存储器是计算机系统中的记忆设备,负责保存和管理各种数据和信息。

存储器可以根据多种标准进行分类,以下是几种常见的分类方式:

  • 按用途分类:

    主存储器(内存):直接与CPU相连,用于存放当前正在执行的数据和程序。内存的速度快、容量相对较小,但数据在断电后会丢失。

    辅助存储器(外存):主要用于存放当前不活跃的程序和数据,如硬盘、光盘等。外存的速度较慢、容量大,但数据可以长期保存。

  • 按存储介质分类:

    半导体存储器:使用半导体材料制成的存储器,如RAM、ROM等。

    磁表面存储器:使用磁性材料制成的存储器,如硬盘、磁带等。

  • 按存取方式分类:

    随机存储器(RAM):任何存储单元的内容都能被随机存取,且存取时间与存储单元的物理位置无关。RAM分为静态RAM(SRAM)和动态RAM(DRAM)等。

    顺序存储器:只能按某种顺序来存取,存取时间与存储单元的物理位置有关。这种存储器在现代计算机系统中较为少见。

  • 按读写性质分类:

    只读存储器(ROM):存储的内容固定不变,只能读出而不能写入。ROM通常用于存放计算机的基本程序和数据,如BIOS ROM。

    随机读写存储器(RAM):既能读出又能写入的半导体存储器。RAM中的数据在断电后会丢失

2.3 输入设备

输入设备是向计算机输入数据和信息的设备,是计算机与用户或其他设备通信的桥梁。

输入设备的主要功能是将外部信息转化成计算机可以理解的数据,用于进行后续的处理和操作。

常见的输入设备主要为:键盘、鼠标、触摸屏、扫描仪、麦克风、麦克风、游戏手柄等。

2.4 输出设备

输出设备是计算机硬件系统的终端设备,用于接收计算机数据的输出,并将其以人们能够理解或控制其他设备的形式展现出来。这些设备通常将电子信息转换为人类可感知的形式,如视觉、听觉、触觉等。

常见的输出设备主要为:显示器、打印机、扬声器、耳机、耳麦、投影仪等。

3. 计算机系统层次结构

在这里插入图片描述

4. 操作系统

操作系统是计算机系统的核心软件,负责管理和控制计算机的硬件与软件资源。

4.1 操作系统分类

当前流行的操作系统主要有以下内容:

  • Windows:

    由微软(Microsoft)公司开发的操作系统,广泛应用于个人电脑、服务器等领域。
    Windows操作系统具有易用性、丰富的软件生态和强大的兼容性等特点。

  • macOS:

    由苹果公司开发的操作系统,专为Mac电脑设计。
    macOS操作系统以其优美的界面设计、高效的性能表现和丰富的软件资源而受到用户喜爱。

  • Linux:

    是一种开源的操作系统,由林纳斯·托瓦兹(Linus Torvalds)于1991年首次发布。
    Linux操作系统具有高度的可定制性、稳定性和安全性,广泛应用于服务器、云计算、嵌入式系统等领域。
    众多Linux发行版如Ubuntu、Debian、Fedora等在全球范围内拥有大量用户和开发者。

  • iOS:

    由苹果公司开发的移动操作系统,专为iPhone、iPad等苹果移动设备设计。
    iOS操作系统以其流畅的用户体验、丰富的应用生态和强大的安全性而受到用户青睐。

  • Android:

    由Google和开放手机联盟共同开发的移动操作系统,广泛应用于智能手机、平板电脑等移动设备。
    Android操作系统具有开放源代码、丰富的应用生态和强大的可定制性等特点。

  • Google chrome OS:

    Chrome OS是一款Google开发的基于PC的操作系统。 Google Chrome OS是一款基于Linux的开源操作系统。Google Chrome OS是一个为上网本设计的轻量级开源操作系统,Google已公开其源代码。

  • 华为鸿蒙系统:

    鸿蒙OS是华为公司开发的一款基于微内核、 [耗时10年、4000多名研发人员投入开发、面向5G物联网、面向全场景的分布式操作系统。鸿蒙的英文名是HarmonyOS,意为和谐。 这个新的操作系统将打通手机、电脑、平板、电视、工业自动化控制、无人驾驶、车机设备、智能穿戴统一成一个操作系统,并且该系统是面向下一代技术而设计的,能兼容全部安卓应用的所有Web应用。

  • ipad OS:
    iPadOS(英文全称:iPad Operating System)是苹果公司基于iOS研发的移动端操作系统系列,于2019年6月4日推出。iPadOS主要运用于iPad等设备,聚焦了Apple Pencil、分屏和多任务互动功能,并可与Mac进行任务分享。

4.2 操作系统常见操作

4.2.1 基本开关机操作

开机:按下计算机主机上的电源按钮。
关机:点击屏幕左下角的“开始”按钮,在弹出的菜单中选择“关机”选项。

4.2.2 桌面和任务栏操作

桌面:Windows的桌面是用户的主要工作区域,可以放置快捷方式和文件,方便快速访问。
任务栏:位于屏幕底部,包含了“开始”菜单、快速启动栏以及当前打开的程序窗口的缩略图。通过任务栏,用户可以方便地切换和管理多个打开的窗口。

4.2.3 文件管理

文件和文件夹:Windows使用文件和文件夹来组织和存储数据。用户可以通过资源管理器(可通过点击“开始”菜单中的“文件资源管理器”选项或按下Win+E快捷键打开)来浏览、创建、复制、移动和删除文件及文件夹。
搜索文件:在文件资源管理器中,用户可以在右上角的搜索框中输入文件名或相关关键词,以快速定位所需文件。

4.2.4 应用程序管理

打开应用程序:用户可以通过点击任务栏上的应用程序图标或使用“开始”菜单中的搜索功能来打开已安装的应用程序。
下载和安装:Windows用户可以从Windows商店或其他软件下载平台下载和安装新的应用程序。

4.2.5 窗口管理

多窗口操作:Windows支持同时打开多个窗口,用户可以通过拖动窗口的边缘来调整其大小,或使用任务栏上的窗口缩略图来切换当前活动窗口。
任务视图:通过任务视图功能,用户可以管理多个打开的窗口,并创建虚拟桌面以更好地组织工作空间。

4.2.6 系统设置和个性化

系统设置:在“设置”应用中,用户可以调整Windows的各种设置,包括网络、隐私、显示、声音等。
个性化:用户可以根据自己的喜好来个性化Windows的外观和感觉,如更改桌面背景、主题、鼠标指针样式等。

4.2.7 常用快捷键

Windows提供了一系列常用的快捷键以提高用户的操作效率,例如:

Ctrl+C:复制选定的文本或文件。
Ctrl+V:粘贴复制的文本或文件。
Alt+Tab:在打开的窗口之间切换。
Win+D:最小化所有窗口并显示桌面(再次按下可恢复窗口)。
Win+E:打开文件资源管理器。
Win+R:打开运行对话框,可输入命令快速打开程序或文件。

4.2.8 其他高级操作

用户账户管理:用户可以创建、删除和管理不同的用户账户,以及配置用户账户的权限和设置。
安全策略配置:对于Windows Server或高级用户,可以配置本地安全策略、文件权限和共享设置等,以增强系统的安全性和稳定性。

5. 计算机发展历程及应用

5.1 世界上第一台计算机之争

于1937年~1941年间,美国爱荷华州立大学的约翰·文森特·阿塔纳索夫(John Vincent Atanasoff)教授和他的研究生克利福特·贝瑞(Clifford Berry)先生研发了“阿塔纳索夫-贝瑞计算机”(Atanasoff-Berry Computer,简称ABC)。
ABC计算机是第一台电子化的计算机,非图灵完备和不可编程是其最大限制。
1941年,莫克利(JohnW.Mauchly)在阿坦纳索夫家中借助了5天,在此期间“盗取”了阿塔纳索夫教授的研究成果及想法,之后于1942年提出了试制第一台能够计算导弹弹道轨迹的电子计算机的初始设想——“高速电子管计算装置的使用”,期望用电子管代替继电器以提高机器的计算速度。

美国军方得知这一设想后,马上拨款大力支持,成立了以莫克利、埃克特(John Eckert)为首的研制小组开始研制工作,预算经费为15万美元。于是世界上第二台电子计算机,世界上第一台通用计算机 ENIAC (Electronic Numerical Integrator And Computer)开始进入研发状态。

于1944年,也就是 ENIAC 的研发中期,当时弹道研究所的顾问——正在参与美国第一颗原子弹研制工作的数学家冯·诺依曼(von Neumann,1903-1957,美籍匈牙利人)带着原子弹研制过程中遇到的大量计算问题,在研制过程中期加入了研制小组。

当时的 ENIAC 设计中存在两个问题:
没有存储器
它是使用布线接板进行控制的
为了进行搭接,可能需要耗费数天的时间,这就导致计算机的速度被这一工作抵消了。

1945年,为了解决 ENIAC 存在的这两个问题,冯·诺依曼和他的研制小组在共同讨论的基础上,发表了一个全新的“存储程序通用电子计算机方案”—— EDVAC (Electronic Discrete Variable Automatic Computer)。方案中提出的计算机体系结构一直延续至今,也就是现代计算机的冯·诺依曼结构。
EDVAC 的初步预算为10万美元,但最终的成本大约超过估计的4倍,约50万美元。
1946年,第一台通用计算机 ENIAC 问世,并开始投入运行。
1949年8月,第一台离散变量自动电子计算机 EDVAC 问世,于1951年正式开始投入运行。

冯-诺伊曼结构是现代计算机体系结构的基础,也成为存储程序式计算机。
冯-诺伊曼结构包括5个基本部分,输入设备、输出设备、存储器、运算器、控制器

5.2 计算机的发展历程

  1. 第一代计算机(1946-1957年)——电子管时代。
    在 ENIAC 问世后,人们在使用时通过在纸带或卡片上打孔的方式来编写机器语言,并通过纸带机将纸带上的内容转换成对应的电信号——有孔代表低电平,无孔代表高电平。
    以 ENIAC 为首的第一代计算机的逻辑元件采用的是电子管,通过电子管来识别这些电信号。
    在 ENIAC 中,总共使用了1.8w个这样的电子管,并通过线路将这些电子管给连接起来从而实现通过电路进行运算的功能,可想而知 ENIAC 必定是一个庞然大物。
    ENIAC 总占地面积约为170 平方米,由于使用了大量的电子管,其耗电量也达到了150KW,即使有这么大的占地面积和这么高的耗电量,其运算速度也只能够实现5000 次左右的加法运算 / 秒 5000次左右的加法运算/秒5000次左右的加法运算/秒。
    以 ENIAC 为首的第一代计算机因其逻辑元件采用的是电子管,所以将这一时期称为电子管时代。在电子管时代的计算机的特点有以下几点:
    逻辑元件采用电子管;
    使用机器语言进行编程;
    主存用延迟线或磁鼓存储信息,容量极小;
    体积庞大,成本高;
    运算速度较低,一般只有几千次到几万次每秒。

  2. 第二代计算机(1958-1964年)——晶体管时代。
    在第二次世界大战期间,不少实验室在有关硅和锗材料的制造和理论研究方面,也取得了不少成绩,这就为晶体管的发明奠定了基础。

为了克服电子管的局限性,第二次世界大战结束后,贝尔实验室加紧了对固体电子器件的基础研究。肖克莱等人决定集中研究硅、锗等半导体材料,探讨用半导体材料制作放大器件的可能性。

1945年秋天,贝尔实验室成立了以肖克莱为首的半导体研究小组,成员有布拉顿、巴丁等人。
1947年12月,这个世界上最早的实用半导体器件终于问世了,在首次试验时,它能把音频信号放大100倍,它的外形比火柴棍短,但要粗一些。在为这种器件命名时,布拉顿想到它的电阻变换特性,即它是靠一种从“低电阻输入”到“高电阻输出”的转移电流来工作的,于是取名为trans-resistor(转换电阻),后来缩写为transistor,中文译名就是晶体管。
1950年,第一只“PN结型晶体管”问世了。
半导体材料的发明,尤其是硅半导体材料的应用,为晶体管计算机的发明奠定了基础。

1953:年,磁芯存储器被开发出来。

1954年,IBM的John Backus和他的研究小组开始开发 FORTRAN。

同年,美国贝尔实验室研制成功第一台使用晶体管线路的计算机,取名“催迪克”(TRADIC),装有800个晶体管。
1957年,FORTRAN 高级语言开发成功,这是一种适合科学研究使用的计算机高级语言。

1958年,美国的IBM公司制成了第一台全部使用晶体管的计算机RCA501型。
由于RCA501型计算机采用晶体管逻辑元件,及快速磁芯存储器,计算机速度从每秒几千次提高到几十万次,主存储器的存贮量,从几千提高到10万以上。

以RCA501为首的第二代计算机由于采用的是晶体管作为逻辑元件,因此该时代也被称为晶体管时代。在晶体管时代的计算机具有以下特点:

逻辑元件采用晶体管;
运算速度提高到几万次到几十万次每秒;
主存使用磁芯存储器;
计算机软件也得到了发展,开始出现了高级语言及其编译程序,有了操作系统的雏形。
3. 第三代计算机(1965-1971年)——中小规模集成电路时代。
1958年,仙童公司Robert Noyce与德仪公司基尔比间隔数月分别发明了集成电路,开创了世界微电子学的历史;

1960年,H H Loor和E Castellani发明了光刻工艺

1962年,美国RCA公司研制出MOS场效应晶体管

1963年,F.M.Wanlass和C.T.Sah首次提出CMOS技术,今天,95%以上的集成电路芯片都是基于CMOS工艺

1964年,Intel摩尔提出摩尔定律,预测晶体管集成度将会每18个月增加1倍。

摩尔定律。当价格不变时,集成电路上可容纳的晶体管数目,约每隔18个月便会增加一倍,性能也会提示一倍。也就是说我们现在和18个月后花同样的钱买到的CPU,后者的性能是前者的两倍。这一定律揭示了信息技术进步的速度。
1964年4月7日,IBM公司研制成功世界上第一个采用集成电路的通用计算机IBM 360系统,它兼顾了科学计算和事务处理两方面的应用。IBM 360系列计算机是最早使用集成电路的通用计算机系列,它开创了民用计算机使用集成电路的先例,计算机从此进入了集成电路时代。
1966年:美国RCA公司研制出CMOS集成电路,并研制出第一块门阵列(50门),为现如今的大规模集成电路发展奠定了坚实基础,具有里程碑意义。

以IBM 360为首的第三代计算机采用的逻辑元件为中小规模的集成电路,因此该时期也被称为中小规模集成电路时代。这个时代,计算机主要还是应用于科学计算等专业用途,并未在普通的家庭进行普及。该时代的计算机具有以下特点:

逻辑元件采用中小规模集成电路;
半导体存储器开始取代磁芯存储器;
高级语言发展迅速,操作系统也进一步发展,开始有了分时操作系统;

半导体存储器的发展:
1970年,仙童半导体公司生产处第一个较大容量的半导体存储器,至今,半导体存储器经历了11代:单芯片1KB、4KB、16KB、64KB、256KB、1MB、4MB、16MB、256MB和现在的1GB。

  1. 第四代计算机(1972年至今)——超大规模集成电路时代。
    1967年和1977年分别出现了大规模和超大规模集成电路。由大规模和超大规模集成电路组装成的计算机,被称为第四代电子计算机。美国ILLIAC-IV计算机,是第一台全面使用大规模集成电路作为逻辑元件和存储器的计算机,它标志着计算机的发展已到了第四代。

第四代计算机的另一个重要分支是以大规模、超大规模集成电路为基础发展起来的微处理器和微型计算机。

微处理器和微型计算机的发展总共经历了四个阶段:

第一阶段是1971~1973年,微处理器有4004、4040、8008。 1971年Intel公司研制出MCS4微型计算机(CPU为4040,四位机)。后来又推出以8008为核心的MCS-8型。

第二阶段是1973~1977年,微型计算机的发展和改进阶段。微处理器有8080、8085、M6800、Z80。初期产品有Intel公司的MCS一80型(CPU为8080,八位机)。后期有TRS-80型(CPU为Z80)和APPLE-II型(CPU为6502),在八十年代初期曾一度风靡世界。

第三阶段是1978~1983年,十六位微型计算机的发展阶段,微处理器有8086、8088、80186、80286、M68000、Z8000。微型计算机代表产品是IBM-PC(CPU为8086)。本阶段的顶峰产品是APPLE公司的Macintosh(1984年)和IBM公司的PC/AT286(1986年)微型计算机。

第四阶段便是从1983年开始为32位微型计算机的发展阶段。微处理器相继推出80386、80486。386、486微型计算机是初期产品。 1993年, Intel公司推出了Pentium或称P5(中文译名为“奔腾”)的微处理器,它具有64位的内部数据通道。Pentium III(也有人称P7)微处理器己成为了主流产品,Pentium IV 已在2000年10月推出。

由此可见,微型计算机的性能主要取决于它的核心器件——微处理器(CPU)的性能。

该时期计算机的特点有:

逻辑元件采用大规模集成电路和超大规模集成电路,产生了微处理器;
诸如并行、流水线、高速缓存和虚拟存储器等概念用在了这代计算机中。

5.3 微处理器的发展历程

  1. 微处理器的发展
    1969年,英特尔(Intel)公司受托设计一种计算器所用的整套电路,公司的一名年轻工程师费金(Federico Fagin)成功地在4.2×3.2的硅片上,集成了2250个晶体管。这就是第一个微处理器——Intel 4004。它是4位的。
    1971年11月15日,Intel公司的工程师霍夫发明了世界上第一个商用微处理器—4004,从此这一天被当作具有全球IT界里程碑意义的日子而被永远的载入了史册
    在它之后,1972年初又诞生了8位微处理器Intel 8008。
    1973年出现了第二代微处理器(8位),如Intel 8080(1973)、M6800(1975,M代表摩托、Z80(1976,Z代表齐洛格公司)等。
    1978年出现了第三代微处理器(16位),如Intel 8086、Z8000、M68000等。
    罗拉公司)1981年出现了第四代微处理器(32位),如iAPX432、i80386、MAC-32、NS-16032、Z80000、HP-32等。它们的性能都与七十年代大中型计算机大致相匹敌。微处理器的两三年就换一代的速度,是任何技术也不能比拟的。
    自1971年Intel公司开发出第一个微处理器Intel 4004至今,微处理器经历了Intel 8008(8位)、Intel 8086(16位)、Intel 80386(32位)、Pentium(32位)、Pentium Ⅲ(64位)、Pentium 4(64位)、Core i7(64位)等。
    这里的4位、8位、16位、32位、64位指的是机器字长,是指计算机进行一次整型运算所能处理的二进制数据的位数。

第五代的微处理器的问世,应该算得上是PC个人电脑发展史上里程碑式的事件。然而这并非是因为它的速度较之以前有了本质的变化,主要原因是,从这里开始传统的X86指令集的CPU开始由传统的复杂指令系统,即CISC技术,转而开始采用许多精简指令系统的措施,即RISC。虽然从外观上这些CPU的指令依然复杂而且长度也参差不齐,但实际其内部的微指令已经是整齐化一的简单指令了。而由此也产生了两项全新的技术,超标量和超流水线技术。接下来,我们简单介绍下他们的情况。
随着VLSI技术的发展,计算机的硬件成本不断下降,与此同时,软件成本却越来越高,这使得人们开始热衷于在指令系统中增加更多的指令以及让每条指令完成更复杂的工作,来提高操作系统的效率,并尽量缩短指令系统与高级语言的语义差别,以便于高级语言的编译和降低软件成本。另外,为了做到程序兼容,同一系列计算机的新机器和高档机的指令系统只能扩充而不能减去任意一条,也促使指令系统愈加复杂。于是我们就把这些计算机称为CISC(复杂指令系统计算机)。
在发现了上述弊病以后,科学家们开始寻求解决办法。1975年IBM公司开始研究指令系统的合理性问题。其结果发现,CISC电脑中,各种指令的使用频率相差悬殊,最常使用的一些比较简单的指令,仅占指令总数的20%,但在程序中出现的频率却占80%。于是着眼于减少指令的执行周期数,简化指令使计算机结构更加合理并提高运行速度的RISC电脑开始出现。

5.4 个人计算机的发展历程

最早的个人计算机之一是美国苹果(Apple)公司的AppleⅡ型计算机,于1977年开始在市场上出售。继之出现了TRS-80(Radio Shack公司)和PET-2001(Commodore公司)。
从此以后,各种个人计算机如雨后春笋一般纷纷出现。
当时的个人计算机一般以8位或16位的微处理器芯片为基础,存储容量为64KB以上,具有键盘、显示器等输入输出设备,并可配置小型打印机、软盘、盒式磁盘等外围设备,且可以使用各种高级语言自编程序。
随着PC机的不断普及,IBM公司于1979年8月也组织了个人计算机研制小组。两年后宣布了IBM-PC,1983年又推出了扩充机型IBM-PC/XT,引起计算机工业界极大震动。在当时,IBM个人计算机具有一系列特点:设计先进(使用Intel8088微处理器)、软件丰富(有八百多家公司以它为标准编制软件)、功能齐全(通信能力强,可与大型机相连)、价格便宜(生产高度自动化,成本很低)。
到1983年,IBM-PC迅速占领市场,取代了号称美国微型机之王的苹果公司。

6. 计算机在现代社会中的常见应用

6.1 办公自动化

办公自动化(Office Automation, OA)是现代计算机技术在企业、政府等机构中广泛应用的一个领域。它通过计算机软件、硬件和互联网技术的集成,实现了日常办公业务的自动化处理,大大提高了工作效率。具体应用包括:

  • 文档处理:使用Word、WPS等文字处理软件编写、编辑、存储和分享文档。
  • 电子表格:Excel等电子表格软件用于数据处理、图表制作和财务分析。
  • 演示文稿:PowerPoint等工具用于制作和展示演示文稿,便于会议报告、产品介绍等。
  • 电子邮件:实现快速、便捷的沟通方式,替代传统的书信或传真。
  • 日程管理:使用日历、提醒等功能规划个人或团队的日程安排。
  • 协同工作:通过在线协作平台(如Google Docs、钉钉、企业微信等)实现多人实时编辑文档、共享资源和项目管理。

6.2 教育行业

计算机在教育领域的应用极大地丰富了教学手段,提高了教学质量和学习效率。具体包括:

  • 多媒体教学:利用多媒体教室、电子白板等设备,结合视频、音频、图像等多媒体材料进行教学。
  • 在线教育:利用互联网平台提供远程教学服务,学生可以在家通过电脑、平板或手机学习。
  • 数字化教材:将传统纸质教材数字化,提供电子书、在线题库、视频课程等学习资源。
  • 智能辅导系统:基于人工智能技术的个性化学习系统,能够根据学生的学习情况提供定制化的学习建议。
  • 教育管理平台:用于学校教务管理、学生信息管理、成绩统计等,提高管理效率。

6.3 娱乐产业

计算机技术在娱乐产业中的应用带来了全新的娱乐体验,促进了文化产业的发展。主要包括:

  • 游戏开发:利用图形处理技术、物理引擎等技术开发各种电脑游戏、手机游戏和虚拟现实游戏。
  • 影视制作:在影视特效、后期制作、动画制作等方面广泛应用,提高了影视作品的艺术效果和观赏性。
  • 音乐创作:计算机音乐软件为音乐人提供了更多创作工具和便利,如数字音频工作站(DAW)用于录音、混音和编曲。
  • 数字娱乐平台:如流媒体服务(Netflix、爱奇艺等)和社交媒体(抖音、快手等),提供了丰富的视频、音乐和社交娱乐内容。

6.4 金融行业

计算机在金融行业的应用促进了金融服务的智能化和便捷化,增强了金融系统的稳定性和安全性。具体包括:

  • 电子银行:网上银行、手机银行等提供在线转账、支付、理财等服务。
  • 证券交易:自动化交易系统、股票行情分析软件等辅助投资者进行投资决策。
  • 风险管理:使用大数据、人工智能等技术进行信贷评估、欺诈检测等,降低金融风险。
  • 区块链技术:在数字货币、智能合约、供应链金融等领域有广泛应用,提高了交易的透明度和安全性。

6.5 医疗健康领域

计算机技术在医疗健康领域的应用推动了医疗服务的数字化和智能化,提高了医疗质量和效率。包括:

  • 电子病历系统:数字化记录患者的病历信息,方便医生查阅和管理。
  • 远程医疗:通过互联网进行远程会诊、咨询和手术指导,打破地域限制。
  • 医学影像处理:使用图像识别、深度学习等技术辅助医生进行病灶检测和诊断。
  • 健康管理系统:个人健康管理APP、可穿戴设备等帮助用户监测健康数据,预防疾病。
  • 药物研发:利用计算机模拟和大数据分析加速新药研发过程。

6.6 智能制造领域

智能制造是信息技术与制造业深度融合的产物,计算机技术在其中发挥着核心作用。主要应用包括:

  • 工业自动化:通过PLC(可编程逻辑控制器)、工业机器人等实现生产线的自动化控制。
  • 智能生产线:利用物联网、大数据、云计算等技术实现生产过程的智能化调度和优化。
  • CAD/CAM/CAE:计算机辅助设计(CAD)、计算机辅助制造(CAM)和计算机辅助工程(CAE)等工具在产品设计、制造和仿真中的应用。
  • 3D打印:根据数字模型快速打印出实体物品,缩短产品开发周期,降低成本。
  • 智能制造系统:如智能工厂、数字孪生等,实现生产过程的实时监控、预测维护和决策支持。

http://www.kler.cn/a/289096.html

相关文章:

  • 如何向函数模块 FM 中传递 Range 参数
  • [宁波24届]平方数
  • 深入探索离散 Hopfield 神经网络
  • 设计模式之责任链模式(Chain Of Responsibility)
  • CSS多列布局:打破传统布局的束缚
  • 界面控件Kendo UI for Angular中文教程:如何构建带图表的仪表板?(一)
  • 三、 3020数控铣床 笔记
  • 中国科学院声学研究所博士招生目录
  • 昇思25天学习打卡营第33天|共赴算力时代
  • 双指针(1)_数组分块_移动零问题
  • 0903,LIST(merge,splice,sort,unique),SET(insert,erase)
  • Codeforces Round (Div.3) C.Sort (前缀和的应用)
  • uniapp上传文件时用到的api是什么?格式是什么?
  • 如何从 Mac 上清空的垃圾箱中恢复误删除的文件
  • linux find 之 文件、时间、权限、深度、删除
  • Android在子线程中更新UI
  • Java导出图片到excel
  • 【算法】贪心算法解析:基本概念、策略证明与代码例题演示
  • ARM汇编指令
  • Pandas 2-读取文件
  • CSRF 概念及防护机制
  • 3D幻想空间:Scratch中探索虚拟世界的奥秘
  • 【量化分析】Python、JavaScript(Node.js)、Java、C#和Ruby五种主流语言的实例代码给大家演示一下如何获取股票实时交易数据
  • 深入理解MySQL慢查询优化(2) -- SQL的执行流程
  • OCI编程高级篇(十八) OCI连接池概念
  • 如何打造一个成功的直播矩阵