晶体管压缩内存电脑效能提升

晶体管压缩内存电脑效能提升

一、晶体管压缩内存电脑效率大升级(论文文献综述)

钟晓东[1](2021)在《量子密钥分发专用数据处理芯片关键技术研究》文中提出量子密钥分发(Quantum Key Distribution,QKD)技术是一种原理上绝对安全的密钥分发技术,其是量子力学和密码学相结合的产物,在保密通讯领域有着广泛的应用前景。QKD凭借其独有的安全性优势,有望成为未来保密通讯的最佳方案。我国在QKD领域耕耘多年,已经走在了世界的前列。“墨子号”科学试验卫星一系列实验的圆满成功,量子保密通信“京沪干线”的建成,标志着我国天地一体化的量子密钥分发网络已经初步建成。未来,我国将建设覆盖范围更广、性能更优的QKD网络。QKD技术的发展趋势是技术的民用化、组网的全球化和设备的小型化。设备的小型化是QKD网络大规模建设和应用的重要基础,而设备小型化的关键是QKD关键部件的芯片化。论文针对QKD系统中的数据处理子系统的集成化进行研究,提出基于ASIC(Application-Specific Integrated Circuit,ASIC)技术设计一款 QKD 专用数据处理芯片(称为QKDSOC芯片),以替代原有QKD设备中的数据处理子系统,实现数据处理子系统的集成化。QKD专用数据处理芯片集成了光源编码、探测器控制、QKD数据后处理、密钥分发、网络协商、流程控制等多种功能,将为QKD设备的集成化、低功耗化和低成本化奠定重要的基础。更为重要的是,该款芯片是我国首款面向QKD领域的数据处理芯片,且具有完全的自主知识产权,对于我国在QKD领域实现技术自主化具有重要意义。QKDSOC芯片的设计目标是用ASIC芯片替代原有QKD设备内的数据处理子系统,协调光源子系统和探测器子系统,实现量子密钥生成的功能。QKDSOC芯片实现了以下几方面的功能。首先是光源子系统的管理。芯片为光源子系统提供驱动编码信息,驱动其产生特定的光脉冲信号,并对光源子系统的运行状态进行监控和管理。其次是探测器子系统的管理。芯片对探测器子系统的运行状态进行监控和管理,并从探测器子系统获取探测到的光子的原始信息。最后是密钥生成流程的管理。密钥生成流程包括和密钥管理设备之间的协商、设备的校准、光源编码信息的生成、探测器数据的获取与预处理、数据的后处理、密钥网络协商、密钥上传等。QKDSOC芯片采用“处理器+协处理器”架构,使用CPU(Central Processing Unit,CPU)及其子系统实现QKD任务的调度和流程的管理,使用QKD协处理器实现高速QKD数据的后处理,使用TOE(TCP/IP Offload Engine,TOE)网络卸载引擎实现密钥的网络协商功能。测试结果表明,QKDSOC芯片达到了设计预期的目标,其数据处理能力支持100kbps速率的密钥生成。本论文的创新点主要体现在以下几个方面:(1)QKDSOC芯片是我国首款面向QKD领域的数据处理芯片,具有自主知识产权。其基于现有的成熟QKD架构设计,首次在系统级层面实现了 QKD系统的集成化、低功耗化。(2)实现了基于TOE技术的网络协商方案。这是首次将TOE技术引入QKD领域。对于提高QKD网络协商的速度、稳定性、安全性具有重要意义。(3)实现了基于协处理器的密钥数据后处理方案。该协处理器集成了 QKD所需的所有数据后处理算法,包括基矢比对、信息融合、纠错、隐私放大、密钥分发、身份认证等。这对于提高密钥处理的速度和安全性具有重要意义。

邓阳杰[2](2021)在《CMOS存算一体关键电路设计与研究》文中进行了进一步梳理神经网络多采用冯·诺依曼架构计算机软件的形式进行工作,但随着神经网络结构愈发复杂、规模日益增大,在计算机上实现神经网络面临实现难度大、资源需求高、运算速度低等缺点。而基于存算一体的神经网络硬件实现方案,从结构和功能上模拟了生物神经元与神经系统,也克服了其在计算机上实现所面临的缺点。因此,本文设计了一种基于互补金属氧化物半导体(Complementary Metal Oxide Semiconductor,CMOS)存算一体的神经元电路和神经网络电路,同时设计了一种简单高效、可扩展的神经网络仿真方案,并以此为基础运行神经网络的硬件仿真。本文在基于CMOS存算一体的硬件仿真研究中,从神经元电路设计、神经网络及其仿真系统设计展开,验证了基于CMOS存算一体的神经网络硬件实现的可行性,并且设计了存算一体芯片的硬件测试系统,本文主要进行了以下工作。(1)设计了一种基于静态随机存取存储器(Static Random Access Memory,SRAM)存算一体的神经元电路。SRAM存算一体单元采用8晶体管结构,仿真结果显示其能实现乘积及其累加的算术运算,并且其存储数据稳定性高。以该SRAM存算一体单元为基础,设计了存算一体阵列和列级电流整合电路,最终得到实现策略简单、结构简单的神经元模型。(2)设计了一种神经网络电路及其仿真系统。使用本文提出的人工神经元模型设计了64×10规模和64×64×10规模的神经网络,使用反向传播算法分别训练两个神经网络,得到神经网络的突触权值。然后使用硬件描述语言对神经网络的仿真控制平台、数模转换模块和神经元输出电压比较模块进行行为级建模,设计了一个自动化运行的神经网络仿真系统。运行仿真系统,仿真结果验证了本文提出的神经网络硬件实现方案的可行性。(3)设计了一种存算一体芯片的硬件测试系统。以STM32单片机为核心设计测试电路并完成电路的印制电路板打板,单片机使用串行线调试接口进行调试,使用串口与电脑进行数据通信,最后对单片机编写控制代码并进行调试。该硬件测试系统具有电路原理简单、易扩展和易移植的特点,可作为大部分存算一体芯片的测试系统。在本文主要的工作中,三个研究方面互相关联,逐步递进,本文设计的存算一体方案具有实现策略简单、电路面积小的特点,设计的神经网络仿真方案具有简单高效、可扩展的特点,证明了基于存算一体实现的硬件神经网络的可行性。

瞿伟[3](2021)在《基于Hi3559V200双系统架构的HDMI显微相机设计与实现》文中研究表明数字显微镜在生命科学研究、工业制造、医疗诊断、教育等领域有着广泛应用,显微相机则是数字显微镜系统的重要组成部分。显微相机是工业相机的一种,从接口划分可以分为专用机器视觉接口相机和通用接口相机。通用接口相机性价比高且应用场景广泛,拥有重要的实用研究价值。本文基于Hi3559V200平台研究并提出了一款双操作系统架构、拥有丰富图像处理功能和强大视频图像编解码功能、HDMI接口的快速启动显微相机。显微相机作为典型的嵌入式系统,软硬件方面的要求与通用计算平台有所不同。嵌入式系统分为对称嵌入式系统和非对称嵌入式系统,对称嵌入式系统性能负载更均衡、适用范围更广,非对称嵌入式系统则结合了通用操作系统和实时操作系统的优势,适用于对实时性有一定要求且需要有良好功能扩展性和人机交互的场景。论文设计的显微相机支持脱离PC工作。相机通过HDMI接口和USB接口两种方式输出视频码流,支持3840×2160分辨率30FPS视频编解码和3840×2160分辨率图片编解码,支持外接SD卡或U盘扩展存储。同时相机支持丰富多样的图像处理功能,提供了很高的图像调节自由度。相机拥有图形用户界面,通过鼠标可以对相机进行控制。除了图像处理以及视频图片编解码,相机还提供了测量功能,用户可通过鼠标使用图形用户界面提供的多种测量工具完成对实时图像的测量。论文设计的显微相机采用Linux+HuaweiLiteOS的双操作系统架构,Linux负责图形用户界面和外设适配等通用功能,Huawei LiteOS负责图像处理以及视频图片编解码等专用媒体业务。双操作系统分别运行在Hi3559V200双核处理器的两个不同核心上,通过U-boot引导启动,并使用中断和共享内存实现核间通信以及视频码流数据交互。双系统显微相机软件建立在论文设计的中间件基础之上。中间件是位于图形用户界面和底层硬件驱动之间的逻辑抽象层。论文按照低耦合、高复用和高效率的原则设计了软件中间件,中间件从底层到上层分为COMMON、ISP、VIDEO、UVC、TEST和LITEO六个模块,分别负责不同的功能模块。论文提出了针对双系统显微相机的快速启动综合优化方案,从相机启动流程出发,研究了基于U-boot优化、Linux内核优化、程序流程优化和其他整体优化等优化方案,通过裁剪相机的固件、优化启动流程和优化用户程序运行流程,大幅度提升了相机从上电到输出预览图像的速度,与同类型HDMI显微相机相比有效提升了用户体验。论文最后对相机的设计功能进行了整体测试,验证了论文设计双系统显微相机功能的可用性、易用性、稳定性,验证了采用快速启动综合优化方案,相较于同类型HDMI显微相机有明显的领先。与其他显微相机相比,论文设计的显微相机拥有功能丰富、编解码性能高、成本低、启动速度快和结构紧凑的特点,拥有较高的实用价值。

李鑫维[4](2020)在《5G移动通信基站基带处理板卡数字硬件设计与实现》文中研究说明第五代移动通信技术,即5th generation wireless systems简称5G,是最新一代蜂窝移动通信技术。5G的性能目标是高数据速率、减少延迟、节省能源、降低成本、提高系统容量和大规模设备连接。5G技术相比目前4G(4th generation wireless systems)技术,其峰值速率将增长数十倍,同时将端到端的延时从4G时代的十几毫秒缩短至5G时代的几毫秒以内。正是因为有了超强的通讯和带宽能力,当前仍然停留于构想阶段的车联网、物联网、智慧城市、无人机网络等概念将在5G网络的应用中变为现实。本硬件设计和实现的研究主体为5G移动通信基站中的基带处理板卡。自5G移动通信的特点来看,对于基站而言,业务数据处理能力和传输能力的要求越来越高。基站中的BBU(Building Base band Unite)是处理基带业务数据的核心,核心中承担该功能的即为本设计与实现的基带处理板卡。该板卡需要功能强大的芯片以支撑庞大的数据处理能力,需要具备高速链路传输避免出现较大延时,需要良好的逻辑控制保证正常运行,同时兼顾降低成本以便满足板卡的可量产性。本文完成的主要工作如下所示:(1)完成板卡需求梳理以及制定板卡硬件设计方案。为了满足可支持3个100MHz 64TR小区能力,基带板卡需要1片FPGA协同处理下行数据,需要2片MPSOC和2片FPGA协同处理上行数据。在此FPGA选取XILINX公司的VU7P芯片,MPSOC选取XILINX公司的ZU15EG芯片,板卡对外光接口选取100Gbps数据率光模块连接,逻辑控制选用CPLD实现。(2)完成板卡硬件电路原理图设计以及PCB设计。硬件电路设计需要基于仿真,尤其是整板的DDR4存储单元和100Gbps光口电路layout设计。(3)完成板卡逻辑控制代码实现。基于CPLD芯片,使用Diamond工具,采用VHDL语言实现功能。(4)完成板卡回板调试测试工作、系统集成测试工作、可靠性验证工作。本设计完成的硬件板卡满足数据处理能力强、传输数据快的需求,系统高可靠性运行正常。为后续的5G基站升级提供基础与借鉴。

陶鹏程[5](2020)在《SoC测试数据编码压缩方法研究》文中进行了进一步梳理随着信息化时代正在高速发展,电子设备的市场需求量不断攀升。集成电路(Integrated Circuit,IC)作为电子设备的核心,需求量也在与日俱增。消费市场要求集成电路具有的功能越来越多,并且要求集成电路的体积越来越小。若要满足消费市场的需求,则需要提升芯片单位面积上的晶体管嵌入数量,即提高芯片集成度。片上系统(System on a Chip,SoC)的出现为集成电路的发展带来了质的飞跃,极大提高了芯片集成度,使得芯片能够被运用到航天、军事、医疗等行业的核心设备上。这些核心设备上的芯片一旦出现问题,带来的后果无法估量,因此,作为保障芯片高质量最有效途径的集成电路测试技术成为了业界学者研究的热点课题之一。由于SoC芯片具有较高的集成度,需要极其庞大的测试数据对其进行测试。大量的测试数据会导致两个问题:第一,测试时间长,测试成本高;第二,当测试数据量超过自动测试设备(Automatic Test Equipment,ATE)内存时,测试将无法正常进行。测试数据编码压缩方法可以在不改变芯片内部结构的前提下对测试数据进行无损压缩,缓解上述问题。本论文围绕“SoC测试数据编码压缩”这一课题展开研究,提出了两种测试数据压缩的方案,其主要内容有:(1)基于测试数据相容压缩技术,本论文提出一种编码字计数压缩方法。该方案挖掘出相容数据块之间的位置关系,利用相容数据块位置的连续性,将连续相容的数据块个数转换成对应代码字。该方案代码字与原数据块是一对多映射关系,相当于在相容压缩的基础上进行二次压缩,因此本方案有较好的压缩效果。(2)基于游程编码压缩技术,提出最小游程切换点标记压缩方法(Minimum Run Changing Point,MRCP)。该方法首先将测试集按相同向量个数分组,再利用组内向量游程切换范围的重叠关系合并游程切换点,将组内所有测试向量的游程位置用一个向量表示出来。MRCP压缩方法突破了传统编码压缩要用编码字后缀表示游程长度的限制,相较于传统游程压缩,极大地缩短了编码字。本论文基于MinTest测试集,针对ISCAS 89标准电路进行了相关实验。实验结果表明,本论文提出的两种测试压缩方案皆具有良好的压缩效果,并且将两种方案与其他同类方案比较,压缩效果也均在不同程度上优于其他同类方案。本论文提出的两种方案可有效缓解测试数据较大与ATE内存、带宽有限之间的冲突,降低测试成本。

徐杰[6](2020)在《基于GPU的圆柱阵雷达信号处理系统设计与实现》文中研究说明数字阵列雷达是阵列雷达中一种重要的新体制雷达,能够形成多个波束实现全方位扫描。圆柱阵雷达作为数字阵列雷达的一种形式,具有全方位多波束、高数据率的特点,这对信号处理提出了很高的要求。目前主要以FPGA和DSP作为常用的雷达信号处理平台,但由于其开发成本高、调试周期长、程序可移植性差,造成其更新换代困难。分析圆柱阵雷达信号处理流程发现,其信号处理过程中存在大量并行计算,而GPU在通用并行计算领域优势明显。因此,本文在GPU并行计算平台上,对圆柱阵雷达信号处理相关算法进行了深入研究,利用CUDA软件编程技术实现了算法从FPGA+DSP平台到GPU平台的移植,本文的主要工作分为以下三个方面。1、圆柱阵雷达任务分析和信号处理方案设计及验证。本文的雷达系统是针对低空低速小目标的探测和跟踪,为了兼顾对远、近目标的探测能力,采用线性调频宽窄脉冲复合信号作为发射信号。结合系统指标要求,设计了圆柱阵雷达36通道信号处理方案,每12通道为一组,形成左、右两波束后进行脉冲压缩、MTD和CFAR处理。在Matlab环境下进行了信号处理算法的系统级仿真,为后续工作提供理论支持。2、基于GPU平台的总体方案设计和信号处理算法的并行设计。在深入研究了GPU硬件架构和CUDA编程模型,并分析了各算法模块运算量及可并行性的基础上,设计了基于GPU的信号处理总体方案。采用CPU+GPU协同异构的工作模式,CPU负责任务调度,GPU负责高度并行的数据运算。在GPU程序中,将信号处理算法分模块设计,采用模块间串行、模块内并行的方式,分别设计了相应的核函数。在设计的核函数中,充分考虑到最大化利用GPU的多线程并行计算能力,对各算法模块如何分配线程块和线程数进行了详细设计。最后,完成了信号处理算法的GPU平台移植工作。3、圆柱阵雷达系统的GPU算法测试和性能分析。首先分析研究了圆柱阵雷达的系统总体架构,给出了数据传输、信号处理和显控终端的设计方法。将回波模拟器产生的36路回波数据通过PCIe 3.0总线传输到服务器,在服务器上对信号处理算法进行了联调。分模块将GPU运算结果和Matlab仿真结果对比,结果基本一致,且一个CPI的信号处理时间满足系统的实时性要求,验证了方案的可行性。本文最终完成了圆柱阵雷达信号处理算法的GPU实现工作,给出了系统联调的测试结果。通过改变一个CPI内的脉冲个数验证了算法的并行性能,通过对比CPU平台和GPU平台的处理时间发现GPU平台具有良好的加速性能,结果表明基于GPU的雷达信号处理能够满足工程需求。

申小龙[7](2019)在《面向大规模应用的多计算平台并行优化关键技术研究》文中提出高性能计算机的出现和快速发展,使其被广泛应用于云计算、安全、大数据处理等领域。据统计大数据处理占据了46%的份额位居榜首。存储结构的复杂多样,计算机体系结构的多样性以及大数据处理问题体量大、数据复杂多样等特点,高性能计算机在大数据处理领域的应用面临着巨大的挑战。本文主要研究多种存储结构下不同应用场景的异构并行算法和优化技术,选取了大数据处理中的迭代算法、高吞吐率需求、大规模网络融合三种典型的应用问题进行研究,分别从存储、通信、任务划分、并行性、矩阵向量运算、CPU+GPU异构等角度对不同类型的应用场景的并行算法和优化技术进行研究。本文的主要创新点概括如下:(1)提出了一种基于多级存储的并行SNF算法针对生物医学领域样本规模大、内存需求高的相似网络融合(SNF:Similar Network Fusion)算法,提出了一种基于分层存储的CPU+GPU异构并行优化算法para SNF(Parallel SNF)算法,通过矩阵/向量分块等方式提高了算法的Cache命中率;通过采用基于SSD+内存+缓存的三级存储模型,大大提高了SNF算法的可扩展性。实验结果表明,para SNF算法运算速度快、可扩展性高。(2)提出了一种无数据相关的高吞吐率异构并行指纹匹配算法针对数据库规模越来越大、实时性要求高、识别算法不断改进、存在较高的数据并发度的生物识别系统,本文以指纹识别为例,提出了一种优化的指纹识别系统框架。针对系统中的指纹匹配这一热点问题选取多核CPU+众核GPU的异构系统,从指纹模板的存储顺序、任务的调度、CUDA Stream等多个角度对匹配过程进行优化。实验结果表明,基于CPU+GPU异构的指纹匹配算法运算速度快,吞吐率高,能够满足系统实时性的要求。(3)提出了一种基于异步规约通信的分布式存储迭代并行优化算法本文以大规模三维重建中的SBA(Sparse Bundle Adjustment)算法为例进行研究,针对SBA算法在迭代优化过程中数据规模大、运算量大、存储需求高等问题,提出了一种与BA问题无关的分布式任务分配方案,并且对算法中的关键步骤进行多核并行优化,针对问题中的方程组求解问题,提出了一种基于异步规约通信的分布式DSBA(Distributed Sparse Bundle Adjustment)算法(A-DSBA:Asynchronous Sparse Bundle Adjustment)。大量的实验表明,本文提出的算法在保持算法精度的前提下,可扩展性高、运算速度快。

张树尧[8](2019)在《基于水冷散热的电脑机箱造型设计》文中进行了进一步梳理当下信息化的生活加大了电子产品硬件的工作负荷,电脑有着轻量化、高性能的趋势,而其发热问题始终无法避免。如今,散热技术多种多样,而水冷有着较好的散热效率和较高的使用舒适度,成为了当下主流散热方式之一。水冷模块的管道交错、连接,经过设计者的精心组织,安装在机箱上,形成接近后现代主义的造型风格。与当下同质化较为严重的现代主义的造型风格相比,显得更为新颖美观,也更容易给用户带来视觉上的冲击。水冷的兴起,把台式电脑机箱从一件普通的功能性物件转变为了精致的艺术品。本文将会从水冷散热和电脑的基础结构入手,对现有的电脑配件、水冷模块、机箱形式做出调研,找到电脑的重要发热部件,分析出现有支持水冷的机箱的优缺点。然后对台式机的用户做出问卷调研,得出机箱功能和形式上的需求,即迷你化、拓展性和美观性,并根据市场调研得出设计方向。整个设计将会以水道板的方式为基础,确定机箱内部元件的布局,设计出水冷模块,形成机箱的大体基调。之后对已有的水冷部件做出拓展性、防误性和美观性的改造,然后将所有设计元件相互整合。最后调整产品造型,以产品语义的方式告诉用户该水冷方案不但美观、散热效率高,而且具有足够的安全性。整个研究的目标人群最终定位在青年的游戏玩家,目的在于探索如何在保证机箱迷你化、美观化的同时,也让机箱具有一定的防误性和拓展性。以满足不同用户的不同需求,给用户带来更舒适的使用体验。

安森友[9](2018)在《基于GPU并行的LBM对图像的处理及流动模拟》文中指出多孔介质渗流广泛存在于自然界以及工程应用之中,通过对多孔介质中流动规律的研究,能够更好地认识复杂结构中的流动现象,从而服务于工艺的优化和疾病的控制等。但由于多孔介质的结构通常具有随机性,基于非结构化网格的Navier-Stokes方程在求解过程中不易操作,所以开发集成简易建模和高效计算于一体的新型方法有着重要的意义。本文用GPU加速的VLBM(体积格子Boltzmann方法)对多孔介质中的流动进行了模拟。LBM求解的过程是基于结构化网格,易于处理复杂的边界,同时为实现较小网格密度下的准确描述,本文提出了 VLBM的概念,即在每个网格中求取孔隙空间所占的比例大小,用0到1之间的连续值对边界上的网格进行表示,之后在控制方程中引入体积格子的概念进行表示。应用VLBM的连续性数据结构特点,本文提出了微观尺度的粗化升级方法,通过求邻近格子的平均值来实现网格密度的降低,在这个过程中模型的孔隙度没有发生任何变化,为保证多孔介质的输运性质的较小浮动,需要根据不同的模型取样品进行升级倍数测试,理论上讲,当孔隙空间发生较大程度的融合之前,VLBM升级方法都适用。同时,VLBM同传统LBM一样,有着显示求解的天然并行性,本文用GPU并行化技术对VLBM进行了加速处理,进一步提高了计算的速度和可计算模型的尺寸。VLBM流动模拟及其对应的升级方法在计算的过程中可以使用常规的图像分割数据,但为了更准确地对多孔介质进行分割并保留足够多的结构信息,本文基于LBM的理念对测地线动轮廓(GAC)的水平集方程进行了求解,用距离场对多孔介质的孔隙边界进行描述,之后结合局部细化的方法和符号函数就可以计算VLBM所需的连续数据体。本文将以上方法进行了编程实现,首先对砂岩数字岩心进行了流动模拟,GPU加速的VLBM在256×256×512的模型上实现了 808.7MLUPS计算速度,相比CPU计算提高了 1400多倍,同时,对岩心样品进行了 23~323倍的升级测试。之后首次利用人类眼睛脉络膜结构进行了流动模拟,分析了脉络膜结构对血液流动的影响和不同AMD阶段下的血液流动状况。

王丁,王旭[10](2015)在《台式机的低功耗之路》文中指出硬件技术的发展已经远远领先于软件应用的需求,以英特尔公司为代表的芯片制造商在不断提高制造工艺的同时,纷纷提出了"每瓦性能"的概念,积极倡导节能理念。除了以游戏应用为主的发烧友依然渴求极致性能之外,大多数的日常应用都可以通过低功耗平台来实现了,这类PC在造型上也可以尽量追求"瘦身"。在这里我们需要先来明确一下台式机的定义和范畴,如果你还把采用塔式机箱的传统分体式电脑作为台式机的唯一造型,那显然是

二、晶体管压缩内存电脑效率大升级(论文开题报告)

(1)论文研究背景及目的

此处内容要求:

首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。

写法范例:

本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。

(2)本文研究方法

调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。

观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。

实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。

文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。

实证研究法:依据现有的科学理论和实践的需要提出设计。

定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。

定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。

跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。

功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。

模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。

三、晶体管压缩内存电脑效率大升级(论文提纲范文)

(1)量子密钥分发专用数据处理芯片关键技术研究(论文提纲范文)

摘要
ABSTRACT
第1章 绪论
    1.1 量子密钥分发技术发展概述
        1.1.1 量子密钥分发发展回顾
        1.1.2 量子密钥分发网络建设
        1.1.3 量子密钥分发发展趋势
    1.2 量子密钥分发面临的挑战
        1.2.1 单光子探测技术
        1.2.2 量子中继
        1.2.3 技术标准化
        1.2.4 设备小型化
    1.3 本论文内容
第2章 QKD系统集成化方案
    2.1 40MHz-QKD设备
        2.1.1 量子密钥分发流程
        2.1.2 40MHz-QKD设备结构
        2.1.3 数据处理子系统需求
        2.1.4 40MHz-QKD设备面临的挑战
    2.2 基于ASIC技术的QKD方案
        2.2.1 系统架构
        2.2.2 关键技术
        2.2.3 可行性分析
第3章 QKD_SOC芯片设计
    3.1 QKD_SOC芯片总体结构
        3.1.1 设计指标
        3.1.2 结构及功能划分
        3.1.3 工作流程
    3.2 光源编码
        3.2.1 发光编码
        3.2.2 存储控制
        3.2.3 流量控制
    3.3 探测器模型
    3.4 探测器控制
    3.5 QKD协处理器
        3.5.1 QKD协处理器结构
        3.5.2 基矢比对
        3.5.3 密钥累积
        3.5.4 密钥纠错
        3.5.5 隐私放大
        3.5.6 密钥下发
        3.5.7 身份认证
        3.5.8 存储空间分配
        3.5.9 复分接
    3.6 TCP/IP卸载引擎
        3.6.1 TOE整体结构
        3.6.2 MAC模块
        3.6.3 ARP模块
        3.6.4 IP模块
        3.6.5 ICMP模块
        3.6.6 UDP模块
        3.6.7 TCP模块
    3.7 CPU及其子系统
        3.7.1 中央处理器
        3.7.2 互联总线
        3.7.3 低速外设
第4章 QKD_SOC验证
    4.1 验证目标
    4.2 TCP/IP卸载引擎验证
    4.3 CPU子系统验证
    4.4 QKD子系统验证
    4.5 QKD业务验证
    4.6 验证总结
第5章 芯片测试
    5.1 QKD_SOC芯片
    5.2 芯片测试大纲
    5.3 测试板
        5.3.1 测试板结构
        5.3.2 核心板功能
    5.4 芯片测试项目
        5.4.1 系统启动测试
        5.4.2 JTAG调试模式测试
        5.4.3 CPU子系统测试
        5.4.4 调试网口测试
        5.4.5 密钥协商网口测试
        5.4.6 QKD子系统测试
    5.5 测试总结
第6章 总结与展望
    6.1 总结
    6.2 展望
参考文献
致谢
在读期间发表的学术论文与取得的研究成果

(2)CMOS存算一体关键电路设计与研究(论文提纲范文)

摘要
abstract
第一章 绪论
    1.1 本文工作的背景与意义
    1.2 本文工作的研究现状
    1.3 本文的主要工作
    1.4 本文的结构安排
第二章 神经网络理论和存算一体技术基础
    2.1 神经网络理论基础
        2.1.1 人工神经元模型
        2.1.2 前馈人工神经网络模型
    2.2 存算一体技术基础
        2.2.1 原位存算一体电路
        2.2.2 非原位存算一体电路
    2.3 本章小结
第三章 神经元电路设计
    3.1 神经元电路整体架构
    3.2 基于SRAM的点乘存算电路设计
        3.2.1 SRAM单元存储结构设计
        3.2.2 SRAM单元计算结构设计
    3.3 权值存算一体阵列设计
    3.4 列级电流整合电路设计
        3.4.1 电流转电压电路设计
        3.4.2 电压相减电路设计
        3.4.3 带隙基准电路设计
        3.4.4 运放电路设计
        3.4.5 激活函数的硬件设计
    3.5 译码器电路设计
    3.6 本章小结
第四章 前馈神经网络设计与仿真
    4.1 基于AMS的数模混仿方法
    4.2 两层前馈神经网络设计与仿真
        4.2.1 两层前馈神经网络系统的整体架构
        4.2.2 数模转换模块设计
        4.2.3 电压比较模块设计
        4.2.4 数字仿真控制平台设计
        4.2.5 仿真结果分析
    4.3 三层前馈神经网络设计与仿真
    4.4 神经网络计算精度提高方法
    4.5 本章小结
第五章 存算一体阵列芯片测试电路设计
    5.1 32×32 存算一体阵列芯片设计
    5.2 存算一体阵列芯片封装
    5.3 测试电路设计
    5.4 本章小结
第六章 全文总结与展望
    6.1 全文总结
    6.2 后续工作展望
致谢
参考文献
攻读硕士学位期间取得的成果

(3)基于Hi3559V200双系统架构的HDMI显微相机设计与实现(论文提纲范文)

致谢
摘要
Abstract
第1章 绪论
    1.1 课题研究背景
    1.2 课题研究现状
        1.2.1 工业相机研究现状
        1.2.2 嵌入式操作系统研究现状
    1.3 课题研究内容
    1.4 本论文结构安排
第2章 多核处理器上的嵌入式系统研究
    2.1 多核处理器
    2.2 对称嵌入式系统
    2.3 非对称嵌入式系统
        2.3.1 虚拟化
        2.3.2 各核心运行独立操作系统
    2.4 双操作系统结构的关键技术
        2.4.1 Huawei LiteOS结构
        2.4.2 双操作系统内核启动方式
        2.4.3 双操作系统通信方式
    2.5 本章小结
第3章 双系统显微相机硬件结构与电路设计
    3.1 总体硬件结构设计
    3.2 硬件核心模块
        3.2.1 主控芯片模块
        3.2.2 内置存储模块
        3.2.3 图像采集模块
        3.2.4 外设接口模块
    3.3 双系统显微相机样机
    3.4 本章小结
第4章 双系统显徼相机软件设计
    4.1 双系统显微相机总体软件框架
    4.2 双系统显微相机软件系统环境设计
        4.2.1 开发环境搭建
        4.2.2 软件运行内存划分
        4.2.3 固件分区设计
    4.3 双系统显微相机驱动程序的开发
        4.3.1 图像传感器驱动
        4.3.2 RTC驱动
    4.4 双系统显微相机中间件的设计
        4.4.1 中间件结构
        4.4.2 COMMON模块设计
        4.4.3 ISP模块设计
        4.4.4 VIDEO模块设计
        4.4.5 UVC模块设计
        4.4.6 LITEOS模块设计
        4.4.7 TEST模块设计
    4.5 双系统显微相机的图形用户界面及其功能
    4.6 本章小结
第5章 双系统显徼相机快速启动分析与优化
    5.1 快速启动优化总览
    5.2 U-boot优化
        5.2.1 U-boot裁剪
        5.2.2 U-boot启动流程优化
    5.3 Linux内核优化
        5.3.1 Linux内核裁剪
        5.3.2 关闭Linux内核打印
    5.4 程序流程优化
        5.4.1 驱动加载优化
        5.4.2 快速启动参数
    5.5 其他通用优化
        5.5.1 硬件解压缩
        5.5.2 文件系统优化
    5.6 本章小结
第6章 双系统显徽相机整体展示
    6.1 相机工作场景测试
    6.2 ISP功能测试
    6.3 视频编解码性能测试
        6.3.1 编码
        6.3.2 解码
    6.4 UVC测试
    6.5 快速启动测试
        6.5.1 测试方法
        6.5.2 测试结果
    6.6 本章小结
第7章 总结与展望
参考文献
作者简历及在学期间所取得的科研成果
    作者简历
    在学期间所取得的科研成果

(4)5G移动通信基站基带处理板卡数字硬件设计与实现(论文提纲范文)

摘要
Abstract
第1章 绪论
    1.1 研究背景与意义
    1.2 本课题的研究进展
        1.2.1 基带处理单元发展历史
        1.2.2 处理器发展历史
        1.2.3 内存发展历史
    1.3 本文主要研究内容
第2章 基带处理板卡硬件需求分析与方案设计
    2.1 5G移动通信基站子系统硬件架构与需求分析
    2.2 BBU单元系统需求分析
    2.3 基带处理板卡硬件需求分析
        2.3.1 基带处理板卡硬件架构
        2.3.2 基带处理板卡硬件需求梳理
    2.4 基带处理板卡硬件方案设计
        2.4.1 基带处理板卡主芯片选型
        2.4.1.1 XILINX UltraScale+ FPGA介绍
        2.4.1.2 AURORA协议介绍
        2.4.1.3 FPGA芯片选型
        2.4.1.4 ARM芯片选型
        2.4.1.5 PCIe交换芯片与CPLD芯片选型
        2.4.2 基带处理板卡硬件方案以及框图
    2.5 基带处理板卡可靠性要求
    2.6 小结
第3章 硬件电路原理图设计
    3.1 VU7P外围接口电路设计
    3.2 ZU15EG外围接口电路设计
        3.2.1 ZU15E GPS侧接口电路设计
        3.2.2 ZU15EG PL侧接口电路设计
    3.3 PCIe交换小系统电路设计
    3.4 CPLD小系统电路设计
    3.5 时钟小系统电路设计
        3.5.1 时钟需求
        3.5.2 时钟小系统电路设计
        3.5.2.1 25M时钟域电路设计
        3.5.2.2 100M和33.333M时钟域电路设计
        3.5.2.3 61.44M时钟域电路设计
    3.6 电源小系统电路设计
        3.6.1 电源需求
        3.6.1.1 数字功耗评估
        3.6.1.2 电源网络拓扑
        3.6.2 电源芯片外围电路设计
        3.6.2.1 开关电源芯片外围电路设计
        3.6.2.2 LDO电源芯片外围电路设计
        3.6.2.3 模块电源芯片外围电路设计
    3.7 调试接口电路设计
    3.8 小结
第4章 硬件PCB设计与可靠性设计
    4.1 硬件PCB设计
        4.1.1 PCB板材选择
        4.1.1.1 板材的选择
        4.1.1.2 铜箔的选择
        4.1.1.3 半固化片的选择
        4.1.1.4 板材可靠性
        4.1.2 PCB布局叠层设计
        4.1.2.1 板卡PCB布局设计
        4.1.2.2 PCB叠层设计
        4.1.3 PCB布线设计
        4.1.3.1 布线规则设置
        4.1.3.2 仿真指导布线
        4.1.3.3 layout设计
    4.2 可靠性设计
        4.2.1 板卡散热设计
        4.2.2 板卡可靠性设计
    4.3 小结
第5章 功能测试与验证
    5.1 板卡硬件测试
        5.1.1 电源测试
        5.1.2 时钟测试
        5.1.3 启动测试
        5.1.4 接口测试
    5.2 CPLD编程和功能测试
    5.3 硬件可靠性验证
        5.3.1 单板可靠性测试
        5.3.2 整机可靠性测试
    5.4 小结
第6章 结论与展望
    6.1 总结
    6.2 展望
参考文献
致谢
作者简历及攻读学位期间发表的学术论文与研究成果

(5)SoC测试数据编码压缩方法研究(论文提纲范文)

摘要
abstract
第一章 绪论
    1.1 集成电路发展历程
    1.2 研究背景与意义
    1.3 国内外研究现状
    1.4 本文的研究内容与组织结构
第二章 SoC测试技术概述
    2.1 SoC测试原理
    2.2 可测试性设计
    2.3 测试数据压缩方案
        2.3.1 定长-定长编码
        2.3.2 定长-变长编码
        2.3.3 变长-定长编码
        2.3.4 变长-变长编码
    2.4 本章小结
第三章 基于相容压缩的编码字计数测试数据压缩方法
    3.1 相容压缩原理
    3.2 基于相容压缩的编码字计数测试数据压缩方法
        3.2.1 相容编码字计数编码压缩思想
        3.2.2 数据块异或运算
        3.2.3 具体编码流程
    3.3 解压电路设计
    3.4 实验结果与分析
    3.5 本章小结
第四章 最小游程切换点编码压缩方法
    4.1 游程编码压缩原理
    4.2 最小游程切换点编码压缩方法
        4.2.1 最小游程切换点概念
        4.2.2 最小游程切换点编码压缩思想
        4.2.3 最小游程切换点提取算法
        4.2.4 基本编码流程
        4.2.5 压缩效果分析
    4.3 解压电路设计
    4.4 实验结果与分析
    4.5 本章小结
第五章 总结与展望
    5.1 总结
    5.2 展望
致谢
参考文献
攻读硕士学位期间完成的论文和参与的科研项目

(6)基于GPU的圆柱阵雷达信号处理系统设计与实现(论文提纲范文)

摘要
Abstract
1 绪论
    1.1 选题背景与研究意义
    1.2 国内外研究现状和发展趋势
    1.3 论文主要工作和安排
2 圆柱阵雷达工作原理及信号处理算法分析
    2.1 引言
    2.2 圆柱阵雷达工作原理
        2.2.1 圆柱阵雷达硬件结构
        2.2.2 圆柱阵雷达系统任务及需求
        2.2.3 圆柱阵雷达信号处理方案设计
    2.3 圆柱阵雷达信号处理算法
        2.3.1 线性调频宽窄脉冲复合信号
        2.3.2 数字下变频原理
        2.3.3 圆柱型阵列的数字波束形成
        2.3.4 脉冲压缩原理
        2.3.5 动目标检测原理
        2.3.6 恒虚警检测原理
    2.4 信号处理算法的Matlab仿真
    2.5 本章小结
3 GPU并行计算和CUDA架构
    3.1 引言
    3.2 GPU简介
    3.3 GPU硬件架构
    3.4 CUDA编程与执行模型
        3.4.1 CUDA线程结构
        3.4.2 CUDA存储结构
        3.4.3 CUDA软件体系
        3.4.4 CUDA程序结构
    3.5 本章小结
4 基于GPU的圆柱阵雷达信号处理算法的并行设计
    4.1 引言
    4.2 信号处理算法运算量和可并行性分析
    4.3 信号处理方案设计
    4.4 GPU关键信号处理算法的设计
        4.4.1 基本运算单元的CUDA设计
        4.4.2 FIR滤波器的CUDA设计
        4.4.3 数字下变频的CUDA设计
        4.4.4 数字波束形成的CUDA设计
        4.4.5 脉冲压缩的CUDA设计
        4.4.6 动目标检测的CUDA设计
        4.4.7 恒虚警检测的CUDA设计
    4.5 本章小结
5 圆柱阵雷达信号处理软件实现与测试
    5.1 引言
    5.2 系统总体架构
    5.3 系统软件设计实现
        5.3.1 软件总体结构
        5.3.2 数据传输实现
        5.3.3 GPU信号处理实现
        5.3.4 软件显控功能实现
    5.4 信号处理算法测试
        5.4.1 实验平台
        5.4.2 测试结果
    5.5 并行设计的性能分析
    5.6 本章小结
6 结束语
    6.1 本文工作总结
    6.2 工作展望
致谢
参考文献
附录

(7)面向大规模应用的多计算平台并行优化关键技术研究(论文提纲范文)

摘要
ABSTRACT
第一章 绪论
    1.1 研究背景及意义
        1.1.1 高性能计算的发展和应用
        1.1.2 大规模应用的特点分析
    1.2 并行计算基础
        1.2.1 并行计算机的分类
        1.2.2 并行计算的设计原则和方法
        1.2.3 并行计算的性能评价指标
    1.3 处理器结构的发展
        1.3.1 CPU的发展
        1.3.2 GPU的发展
        1.3.2.1 GPU架构的发展
        1.3.2.2 GPU存储体系
        1.3.3 异构系统的发展
    1.4 大规模应用领域并行计算发展面临的挑战
    1.5 本文主要研究内容及其创新点
    1.6 论文的组织结构
第二章 面向聚合数据类型大规模基因组的SNF算法在通用计算平台的并行算法与优化技术
    2.1 引言
    2.2 相关研究
        2.2.1 基于多核CPU的并行优化技术
        2.2.2 存储器的发展和分类
        2.2.3 并行运算库简介
        2.2.4 生物医学发展的现状及其存储需求
    2.3 相似网络融合算法背景知识
        2.3.1 SNF算法原理
        2.3.2 SNF算法的存储需求及其热点分析
        2.3.2.1 串行SNF算法的存储需求
        2.3.2.2 串行SNF算法的存储特点
        2.3.2.3 串行SNF算法热点分析
    2.4 并行SNF算法(para SNF)和优化技术
        2.4.1 存储优化
        2.4.2 基于并行库的SNF算法重构
        2.4.3 基于分级存储的并行SNF优化
        2.4.3.1 基于分级存储的SNF算法
    2.5 实验结果
        2.5.1 实验环境
        2.5.2 实验数据
        2.5.3 评价指标
        2.5.4 并行相似网络融合算法性能分析
        2.5.4.1 归一化互信息(NMI)分析
        2.5.4.2 存储空间需求和性能分析
        2.5.4.3 加速比
    2.6 总结和展望
第三章 面向高吞吐率生物识别应用在异构计算平台的并行算法和优化技术
    3.1 引言
    3.2 相关工作
    3.3 背景知识
        3.3.1 指纹识别中的基础知识
        3.3.1.1 指纹识别系统性能指标
        3.3.1.2 指纹分类
        3.3.1.3 指纹识别分类
        3.3.2 指纹识别系统框架
        3.3.3 指纹识别系统框架优化
        3.3.4 指纹精匹配算法流程
    3.4 基于GPU的指纹精匹配算法并行优化
        3.4.1 任务调度优化
        3.4.2 存储优化
        3.4.3 CUDA Stream优化
    3.5 基于多核CPU的指纹匹配算法并行优化
    3.6 基于CPU+GPU异构的指纹匹配加速
    3.7 实验结果与分析
        3.7.1 实验平台
        3.7.2 实验数据
        3.7.3 串行程序最优化
        3.7.4 基于GPU的指纹匹配算法吞吐率
        3.7.5 基于CPU的指纹匹配算法吞吐率
        3.7.6 基于CPU+GPU异构平台的指纹匹配算法吞吐率
    3.8 小结
第四章 面向大规模三维重建应用的强迭代分布式并行算法和优化技术
    4.1 引言
        4.1.1 分布式计算及其编程简介
        4.1.1.1 分布式存储系统及其特点
        4.1.1.2 分布式计算及其特点
        4.1.1.3 MPI简介
        4.1.2 强迭代算法的发展历程
    4.2 相关研究
    4.3 背景知识
        4.3.1 多视图三维重建模型
        4.3.2 SFM算法简介
        4.3.3 多视图三维重建的存储需求分析
        4.3.4 Sparse Bundle Adjustment(SBA)原理
    4.4 SBA算法分布式方案
        4.4.1 SBA分布式方案综述
        4.4.2 SBA算法的分布式存储方案选择
        4.4.3 分布式SBA算法的数据集划分
    4.5 DSBA关键步骤中的数据分布及其通信
        4.5.1 数据初始化
        4.5.2 Jacobian矩阵J的计算
        4.5.3 计算J~TΣ_x~(-1)J+ μI,J~TΣ_x~(-1)?
        4.5.4 计算S和 e_a
        4.5.5 解方程Sδ_a=e_a,求δ_a
    4.6 基于循环分块的异步规约求解方程的DSBA方法
        4.6.1 基于循环分块的分布式方程组求解
        4.6.2 A-DSBA算法的数据分布和通信
        4.6.3 A-DSBA的异步规约时序图
        4.6.4 A-DSBA算法总结
    4.7 实验结果与分析
        4.7.1 实验环境
        4.7.2 实验方案及结果分析
    4.8 总结和展望
第五章 结论与展望
    5.1 工作总结
    5.2 工作展望
致谢
参考文献
作者在学期间取得的学术成果

(8)基于水冷散热的电脑机箱造型设计(论文提纲范文)

摘要
ABSTRACT
1 绪论
    1.1 研究背景
    1.2 国内外研究现状
    1.3 研究目的
    1.4 研究方法
    1.5 研究意义
    1.6 研究创新点
        1.6.1 产品的迷你化
        1.6.2 迷你机箱的拓展性
        1.6.3 产品语义的可视化
        1.6.4 用户操作的防错设计
        1.6.5 同造型相结合的新的控制形式
2 有关于水冷机箱的理论基础
    2.1 水冷的基础原理
    2.2 水冷的基础结构
    2.3 一般电脑机箱的构成
    2.4 发热部件分析
        2.4.1 中央处理器(CPU)
        2.4.2 显示接口卡(GPU)
        2.4.3 其它发热部件
    2.5 现有散热方式分析
        2.5.1 风冷散热
        2.5.2 水冷散热
    2.6 现有水冷散热器介绍
        2.6.1 分体式水冷
        2.6.2 一体式水冷
    2.7 机箱设计原则
        2.7.1 保护性原则
        2.7.2 兼容性原则
        2.7.3 美观性原则
        2.7.4 模块化原则
    2.8 本章小结
3 水冷散热机箱造型设计调研
    3.1 机箱和电脑造型
    3.2 现有机箱概况
    3.3 基于用户需求方向的调研
    3.4 基于用户年龄和产品造型调研
    3.5 现有机箱案例分析
    3.6 本章小结
4 水冷机箱造型设计方案实践
    4.1 目标人群设定
    4.2 水冷机箱设计方向
        4.2.1 功能方向
        4.2.2 形式方向
    4.3 设计展开
        4.3.1 整体结构方案
        4.3.2 电脑部件参考方案
        4.3.3 机箱内部布局方案
        4.3.4 前期理念以及草图方案
        4.3.5 草图方案评估
    4.4 设计深化
        4.4.1 CPU冷头造型
        4.4.2 显卡水冷头造型
        4.4.3 冷排外部造型
        4.4.4 其它部件造型
        4.4.5 水道板结构
        4.4.6 整体造型设计
        4.4.7 整体颜色搭配
    4.5 三维表现以及展示
        4.5.1 三维模型制作
        4.5.2 三维渲染展示
        4.5.3 场景模拟展示
        4.5.4 使用效果评测
5 结论与展望
    5.1 结论
    5.2 展望
参考文献
附录
致谢
研究成果及发表的学术论文
作者和导师简介
附件

(9)基于GPU并行的LBM对图像的处理及流动模拟(论文提纲范文)

摘要
abstract
第一章 绪论
    1.1 研究背景以及研究目的
    1.2 国内外研究现状
        1.2.1 多孔介质渗流研究现状
        1.2.2 数字岩心图像分割研究现状
        1.2.3 LBM研究现状
        1.2.4 并行计算
    1.3 论文研究内容及方法
        1.3.1 论文研究内容
        1.3.2 技术路线
        1.3.3 论文创新点
第二章 基于测地线活动模拟和水平集方法的图像分割
    2.1 水平集图像分割算法
        2.1.1 基于曲线演化理论的图像分割
        2.1.2 基本水平集模型
        2.1.3 GAC的水平集模型
        2.1.4 GAC水平集模型的LBM解法
    2.2 图像分割结果分析
        2.2.1 灰度图像预处理
        2.2.2 初始模型的产生
        2.2.3 数字岩心分割结果评价
    2.3 本章小结
第三章 体积格子Boltzmann模型
    3.1 从Boltzmann方程到LBM
    3.2 格子变量与物理变量之间的转化
        3.2.1 相似准则
        3.2.2 格子量与物理量的关系
    3.3 常用的边界条件
        3.3.1 反弹边界
        3.3.2 周期边界
        3.3.3 非平衡外推边界
    3.4 体积格子Boltzmann模型
    3.5 VLBM与传统LBM模型对比
        3.5.1 单管模型
        3.5.2 数字岩心模型
    3.6 本章小结
第四章 VLBM的 GPU并行化处理及计算模型的升级
    4.1 GPU-CUDA并行计算理论
        4.1.1 CPU和 GPU结构
        4.1.2 CUDA并行架构
        4.1.3 GPU设备内存管理
    4.2 VLBM的 GPU并行化
        4.2.1 并行程序及结构优化
        4.2.2 基于数字岩心的并行效率
    4.3 基于VLBM的尺度升级
        4.3.1 尺度升级原理
        4.3.2 尺度升级后的结果验证
    4.4 本章小节
第五章 GPU并行VLBM在脉络膜模拟中的应用
    5.1 脉络膜结构与功能
    5.2 脉络中的流动模拟分析
        5.2.1 模型验证
        5.2.2 脉络膜结构对流动的影响
        5.2.3 对老年黄斑变性不同阶段的分析
    5.3 本章小结
结论
参考文献
攻读硕士期间取得的学术成果
致谢

四、晶体管压缩内存电脑效率大升级(论文参考文献)

  • [1]量子密钥分发专用数据处理芯片关键技术研究[D]. 钟晓东. 中国科学技术大学, 2021(09)
  • [2]CMOS存算一体关键电路设计与研究[D]. 邓阳杰. 电子科技大学, 2021(01)
  • [3]基于Hi3559V200双系统架构的HDMI显微相机设计与实现[D]. 瞿伟. 浙江大学, 2021(09)
  • [4]5G移动通信基站基带处理板卡数字硬件设计与实现[D]. 李鑫维. 中国科学院大学(中国科学院大学人工智能学院), 2020(04)
  • [5]SoC测试数据编码压缩方法研究[D]. 陶鹏程. 安庆师范大学, 2020(12)
  • [6]基于GPU的圆柱阵雷达信号处理系统设计与实现[D]. 徐杰. 南京理工大学, 2020(01)
  • [7]面向大规模应用的多计算平台并行优化关键技术研究[D]. 申小龙. 国防科技大学, 2019(01)
  • [8]基于水冷散热的电脑机箱造型设计[D]. 张树尧. 北京化工大学, 2019(06)
  • [9]基于GPU并行的LBM对图像的处理及流动模拟[D]. 安森友. 中国石油大学(华东), 2018(07)
  • [10]台式机的低功耗之路[J]. 王丁,王旭. 个人电脑, 2015(06)

标签:;  ;  ;  ;  ;  

晶体管压缩内存电脑效能提升
下载Doc文档

猜你喜欢