T=题名(书名、题名),A=作者(责任者),K=主题词,P=出版物名称,PU=出版社名称,O=机构(作者单位、学位授予单位、专利申请人),L=中图分类号,C=学科分类号,U=全部字段,Y=年(出版发行年、学位年度、标准发布年)
AND代表“并且”;OR代表“或者”;NOT代表“不包含”;(注意必须大写,运算符两边需空一格)
范例一:(K=图书馆学 OR K=情报学) AND A=范并思 AND Y=1982-2016
范例二:P=计算机应用与软件 AND (U=C++ OR U=Basic) NOT K=Visual AND Y=2011-2016
摘要:随着信息技术的发展,并行处理变得越来越普遍,本文在分析并行处理共享存储器特点的基础上,设计了一种树形COMA并行机结构,并对cache一致性进行了研究。
摘要:cache On-Die曾作为Celeron300A区别于Celeron300和旧的PⅡ系列的闪亮卖点而颇为引人注目。在第二代Celeron处理器中,Intel首次采用了这项技术——L2 cache直接集成在CPU芯片中,这可以使L2 cache以与CPU内核频率相同的速度运行,而不像PⅡ和早期的PⅢ那样cache必须以处理器一半的速度运行;同时这种设计方式带来的其他好处也显而易见,它拥有良好的散热性,从而使得Celeron立即成为Intel处理器家族中超频能力最强的CPU。众所周知,目前CPU的超频性能的瓶颈主要在L2 cache。由于Celeron 300A以前的CPU都采用Off-Die技术的L2 cache,所以大家似乎都这么认为:On-Die cache要比Off-Die cache要快、要好、要先进,是一种全新的缓存。事实是否真是这样简单理解?笔者想通过本文就On-Die与Off-Die技术的方方面面比较,做一个详细的解释,使读者搞清楚这其中的机理,澄清一些认识上的误区。
摘要:在嵌入式领域,一般都是单个或一类应用程序在处理器上反复执行,在这种情况下,通过配置cache的参数,可以得一个性能最优的cache。通过变化cache的组容量s、块容量a和块大小b三个参数,可以得到一个总访问时间最小的cache配置。在本文中,提出了两个cache仿真算法,此算法可以减少判断cache命中/失效的时间复杂度。
摘要:本文从专利的年度申请量、技术分布、专利权人分布、法律状态、生命周期等方面,对微处理器中的核心技术"高速缓冲存储器(cache)"相关专利进行了详细论述。分析显示,多核设计中的技术研究重点,如cache一致性技术,缓存监听(Snooping)技术,其专利主要掌握在少数国际大公司手中。对专利技术生命周期分析表明,自可考证的美国cache专利至今,cache技术已经历了萌芽期、发展期、成熟期,目前已进入衰退期,而中国的cache专利申请相对美国的情况滞后2-3年。专利文献通常早于技术文献公开,因此美国cache专利的分布对相关研发人员具有一定的参考意义。
摘要:快速发展的集成电路制造工艺与相对滞后的设计技术形成的"存储墙"问题已经成为制约限制处理器潜在性能提升的主要障碍,构建高性能片上存储系统一直是处理器微体系结构研究的重要内容。提出cache空间预约技术--CSPO,为片上cache增加预约空间计数器POC,以及cache行预约标志POT,使cache替换目标选择与片外存储器访问并行执行,同时具备将POT标识为1的脏cache数据行尽快提前写回的能力,从而在片外数据返回前提前完成cache替换目标行选择和脏数据写回,并将替换目标cache行地址存入专用寄存器中,数据返回后直接写入替换目标cache行,从而有效隐藏cache替换操作延迟、提升IPC。实验结果表明,CSPO技术能有效提升IPC性能,范围为2.46%~11.11%,平均为5.37%。
摘要:With the widespread use of streaming media application on the Internet, a significant change in Internet workload will be provoked. Caching is one of the applied techniques for enhancing the scalability of streaming system and reducing the workload of server/network. Aiming at the characteristics of broadband network in community, we propose a popularity-based server-proxy caching strategy for streaming medias, and implement the prototype of streaming proxy caching based on this strategy, using RTSP as control protocol and RTP for content transport. This system can play a role in decreasing server load, reducing the traffic from streaming server to proxy, and improving the start-up latency of the client. Key words streaming server - proxy - cache - streaming media - real time streaming protocol CLC number TP 302 - TP 333 Foundation item: Supported by the National High Technology Development 863 Program of China (2001AA111011).Biography: Tan Jin (1962-), male, Ph. D candidate, research direction: network communications, multimedia technologies, and web caching.
摘要:This paper presents a new encryption embedded processor aimed at the application requirement of wireless sensor network (WSN). The new encryption embedded processor not only offers Rivest Shamir Adlemen (RSA), Advanced Encryption Standard (AES), 3 Data Encryption Standard (3 DES) and Secure Hash Algorithm 1 (SHA - 1 ) security engines, but also involves a new memory encryption scheme. The new memory encryption scheme is implemented by a memory encryption cache (MEC), which protects the confidentiality of the memory by AES encryption. The experi- ments show that the new secure design only causes 1.9% additional delay on the critical path and cuts 25.7% power consumption when the processor writes data back. The new processor balances the performance overhead, the power consumption and the security and fully meets the wireless sensor environment requirement. After physical design, the new encryption embedded processor has been successfully tape-out.
摘要:以“龙芯1号”处理器为研究对象,探讨了嵌入式处理器中访存部件的低功耗设计方法.通过对访存部件的结构、功耗以及关键路径进行分析,利用局部性原理,提出一种根据虚拟地址历史记录进行判断的方法,可以显著减少TLB和cache对RAM块的访问次数,使得TLB部件功耗平均降低了28.1%,cache部件功耗平均降低了54.3%,处理器总功耗平均降低了23.2%,而关键路径延时反而减少,处理器性能略有提高.
摘要:本文介绍了面向嵌入式应用的片上系统芯片:腾跃-1的设计和实现技术.该芯片包括32位嵌入式RISC微处理器内核、通用存储器控制器、LCD控制器、片上总线和各种外围设备.微处理器内核采用自主设计的指令集体系结构.该芯片已经在中芯国际0.18μm工艺上通过验证,主频300MHz@1.8V,可以应用于信息安全领域的身份认证和数据加密等应用.本文最后对芯片的进行了性能评测.
摘要:设计了一种基于Key-value结构的缓存KV-cache,旨在简化数据结构,高效管理缓存数据。KV-cache由Mem-cache和F-cache构成。其中,Mem-cache为第一级缓存,并采用缓存回写机制以异步方式将数据写入F-cache进行持久化存储。F-cache使用大文件存储数据,并构建了基于B树的缓存索引以加快检索速度。数据写入F-cache的位置由基于B树的空闲空间管理器进行分配。在100 Mbps局域网内测试KV-cache读写性能。实验表明,KV-cache读写性能优于传统文件目录方式的缓存,能够安全、高效地管理所缓存的各种空间数据。
地址:宁波市钱湖南路8号浙江万里学院(315100)
Tel:0574-88222222
招生:0574-88222065 88222066
Email:yzb@zwu.edu.cn