北京2024年3月27日 /美通社/ -- 3月26日,浪潮信息与英特尔正式宣布,浪潮信息"源2.0系列基础大模型"已和最新的英特尔® 酷睿™ Ultra处理器平台完成适配,本地推理速度提升100%。企业可以在全新的英特尔商用客户端AI PC上,使用AI PC大模型效率工具"YuanChat"快速本地化部署和运行"源2.0"大模型, 以更快的访问速度、更高的性能和更好的数据安全控制,轻松完成自动编程、商业数据计算、公文写作等任务,释放大模型在企业应用场景中的生产力和创新力。
2024年是 "大模型落地应用的元年",AI PC(人工智能个人电脑),作为一种能够在本地运行大模型及AIGC应用的PC终端,已经成为AI实现规模化扩展及应用落地的重要载体。英特尔基于酷睿 Ultra 处理器强悍的 CPU+GPU+NPU 三大 AI 引擎,为商用客户端AI PC提供强劲性能,满足经济、物理、数据保密这三大生成式AI on AI PC 法则,可支持200亿规模大语言模型的本地化运行,加速大模型应用落地。
浪潮信息与英特尔合作,针对"源2.0系列基础大模型",实现酷睿Ultra AI PC平台推理优化,并推出为AI PC而生的大模型效率工具"YuanChat"。浪潮信息"源2.0系列基础大模型"作为首个全面开源的千亿参数模型,包含1026亿、518亿、21亿等三种参数规模。"YuanChat"是基于"源2.0系列基础大模型"设计的应用工具,旨在以对话形式调用大模型,帮助用户完成数据计算、公文写作、编程设计、知识问答、会议纪要、文本总结与摘要等任务导向型应用,真正实现重塑工作模式,提高生产力水平。
基于酷睿 Ultra AI PC上所部署的"YuanChat",用户能够流畅地使用"源2.0-2B模型(Yuan2-2B-Februa-hf)"。作为业界最强的小规模语言模型,"源2.0-2B模型"具有领先的自动编程、数值计算和逻辑推理能力,在Python编程测试(Humaneval)、数学计算测试(GSM8K)中展现出超越ChatGPT3.5及其他百亿(>10B)参数模型的评测结果,已成为最具竞争力的开源可商用模型。
基于英特尔商用客户端AI PC强大的独立运算能力,"YuanChat"能解决数据传输过程中的延迟问题与泄露风险,能够实现更高的数据安全性、性能和控制权。同时,"YuanChat"支持离线状态下的自主操作,这使得终端用户能够摆脱网络限制,在任何时间、任何地点都能够进行创造性的工作,享受更灵活的大模型交互体验。
在英特尔商用客户端AI PC上,可以基于BigDL-LLM大模型加速库实现对"YuanChat"的模型量化处理,进一步提高模型的可移植性并加快计算速度,减少资源占用,弥合终端有限的算力与对高精度模型和实时智能应用的需求之间的差距。实测数据显示,在处理复杂任务时,"YuanChat"在保证精度的同时,本地推理效率及性能提升达到100%,进一步降低了企业应用大模型的成本。
未来,浪潮信息与英特尔将持续携手构建活跃的AIPC生态。双方将联合基于英特尔® 酷睿™ Ultra处理器平台进行"源2.0系列基础大模型"的进一步适配与优化,不断完善"YuanChat"应用系统,将大模型和商用平台的生产力、安全性、可管理性和稳定性有机结合,开拓商用 AI PC 更多的新应用、新场景、新形态,帮助企业用户在PC端打造更加安全、流畅、易用的大模型效率工具,惠及企业提升效率,赋能世界的智能化变革。