
CPU不能直接访问的存储器是()A.ROM B.RAM C.Cache D.CD-ROM
计算机中CPU对存储器的访问存在严格层级,CD-ROM(选项D)是唯一CPU不能直接访问的存储器。这一结论源于存储器体系的核心设计原则:CPU仅能直接操作内存储器,而CD-ROM属于辅助存储器(外存),需通过内存中转才能被CPU处理。
内存储器包括Cache、RAM和ROM三大类。Cache(高速缓存)是集成在CPU内部的高速存储,速度接近CPU主频(如L1缓存访问仅需1-3时钟周期),用于临时存放频繁使用的数据指令,其管理完全由硬件自动完成。RAM(随机存取存储器)作为主存主体,通过地址总线、数据总线与CPU直接相连,支持随机读写,是操作系统和运行中程序的临时数据存放区。ROM(只读存储器)则存储固定程序(如BIOS),虽写入后不可修改,但同样通过总线与CPU直接通信,断电后数据不丢失。三者共同构成CPU可直接寻址的内存空间,访问延迟均在纳秒级。
相比之下,CD-ROM作为外存设备,采用光学原理读取数据,其物理特性决定了访问速度与CPU存在巨大鸿沟——即使是最快的固态硬盘,随机读取延迟也达毫秒级(约为内存的10万倍),而CD-ROM的速度更慢。根据计算机体系结构设计,外存数据必须先由控制器(如硬盘控制器)通过DMA技术调入内存,再由CPU从内存中读取处理。这种“外存→内存→CPU”的传输路径,是解决速度不匹配的关键机制,也使得CD-ROM无法成为CPU的直接访问对象。
从系统层级看,存储器体系如同金字塔:Cache位于顶端,速度最快但容量最小;RAM和ROM构成中间的主存层;CD-ROM等外存则处于底端,以容量换取速度。这种结构既满足了CPU对高速数据的需求,又通过外存实现了海量数据的长期存储。理解这一层级关系,就能明白为何CD-ROM必须经过内存中转才能被CPU使用——这不仅是技术限制,更是平衡速度、容量与成本的精妙设计。