产品资讯
当前位置: 首页 > 金牛资讯 > 产品资讯

生成式AI浪潮助推下,人工智能的生态之路怎么走?

类别:产品资讯日期:2023-10-21 06:14:00
我要分享

集微网报道 ChatGPT等生成式AI系统的发布将推动AI未来长达十年的繁荣,也将生态的问题推至前台。

一方面借助大模型AI在各行各业将加速落地,另一方面在部署AI方案时面临众多制约,如封闭的开发平台、缺乏专业知识、资源的限制等,业界也在思变。

一些观点认为,开发者在应用AI满足多样化行业需求方面发挥着至关重要的作用,如果开发者在硬件和软件的选择上受到限制,那将阻碍全球AI的应用和价值创造。因而,自由选择最适合需求的硬件软件的开放生态将是解决之道。


解绑软硬件

正如英特尔公司高级副总裁兼网络与边缘事业部总经理Sachin Katti所言,如何使用户轻松地部署、调用、管理AI?这不仅需要异构的基础设施支持,还需要构建一个开放的、支持AI运行的不同基础架构、可助力开发者快速AI部署的软件生态。

这也意味着软件和硬件的“解绑”。

如果能打通软硬件捆绑的“樊笼”,那也意味着更多的开发者,并不需要了解大模型Transformer有多少层,Transformer中的Prompt如何进行处理;不需要了解硬件的底层架构,通过开放软件建模之后就能进行调用和调优进行部署。

显然,这对业界来说是绝对的利好。

但随之而来的质疑不仅在于开放生态的实用性,众多开发人员仍面临在某一个封闭生态投入太多、迁移难度和成本太大的困扰。

借助AI的力量,这些挑战或将迎刃而解。英特尔公司副总裁、英特尔中国软件生态事业部总经理李映在接受集微网采访时表示,以往从某个生态转换到另一个生态对开发者的挑战是众多的学习曲线,需要花众多的时间和投入。但在AI出现之后,通过AI的方法可以较为便利地将迁移成本降得更低。未来从CUDA转到其他开放生态,原有封闭生态产生学习曲线的壁垒会慢慢消失。

到如今,对CUDA封闭生态发起的挑战者既有老牌劲旅,也有产业新贵。首要问题是,这些挑战者能否构筑出足够好用的生态,让众多AI开发者转向,打破业界对英伟达的路径依赖?

积极备战

谷歌作为先行者,在这方面做了诸多的尝试,并取得了一定的成效。

而OpenCL则以开源为利器,OpenCL支持多种编程语言和环境,并提供丰富的工具来帮助开发和调试,可同时利用CPU、GPU、DSP等不同类型的加速器来执行任务,并支持数据传输和同步。此外,OpenCL支持细粒度和粗粒度并行编程模型,可根据应用需求选择合适模型提高性能和效率。

而今英特尔也在全面发力,不止在CPU、NPU、GPU和Gaudi加速器硬件领域不断迭代和扩展,还推出了开放的、模块化的开发者云平台和面向客户端及边缘端的OpenVINO工具,使代码只需编写一次即可部署在多种计算架构上,以全面促进AI从云到端的部署。

“通过采用不同的硬件,可优化AI工作负载,开源生态系统则助力开发者加快开发自己的模型,并轻松部署在不同的应用领域,从而提高效率和生产力,创造更多的价值,让AI无处不在。”Sachin Katti指出。

不止如此,通过与领先的软件供应商 Red Hat、Canonical和SUSE合作,英特尔还为其发布的企业软件提供经英特尔优化的发行版,以确保这些软件面向全新英特尔架构进行了性能优化。此外,英特尔将继续为包括PyTorch和TensorFlow在内的AI与机器学习工具和框架作出贡献。英特尔CTO Greg Lavender表示,英特尔将抓住机遇,持续优化软件,以获得最佳的性能和规模。

而开放生态要在AI领域生根,或仍需要时间和创新护法。

一名资深软件开发人员告诉集微网,CUDA已经存在了近20年,对于高度并行的自定义计算(不是标准的深度学习层)来说,仍将是一个标准软件。但对于深度学习来说,开放生态或会做得很好。

“对与CUDA竞争的开放标准来说,还需要努力发展成熟来获得市场和心智份额。英特尔、AMD等需要通过有竞争力的性能和更低的成本来逐步打开市场,并持续付诸实践,才能发挥和提升开放生态的有效性和实用性。”上述人士建议道。

历史的教训

从目前来看,在深度学习的Training阶段,GPU成为一项事实的工具标准,英伟达也一家独大。因为竞争的核心已经不是单纯的芯片本身,而是基于芯片加速背后的整个生态圈,提供足够友好、易用的工具环境让开发者迅速获取到深度学习加速算力,从而降低深度学习模型研发+训练加速的整体TCO和研发周期,在这方面不得不说CUDA建立了深厚的护城河。

在云端推断环节,由于海量的推断请求仍然是计算密集型任务,CPU在推断环节再次成为瓶颈。但在云端推断环节,GPU不再是最优的选择,阿里云、Amazon、微软Azure等都纷纷探索云服务器+FPGA模式替代传统CPU,以支撑推断环节在云端的技术密集型任务。

随着AI应用的爆发,越来越多的AI将落地于边缘端,由于ASIC、NPU、FPGA等各有拥趸,在深耕不同领域的同时,逐渐由AI软件演进到软件+芯片是自然而然的路径,也将形成缤纷的生态。

因而,AI从云端至边缘端的部署也让开放或封闭生态正面对决,但路线或有不同、节奏或有快慢。

业内人士直言,从技术角度来讲,很难区分封闭生态和开放生态的伯仲,无论是用户体验、性能等等,真正的区别是战略选择和速度的问题。

回溯历史,无论是在PC、互联网、移动还是万物互联时代,最开始时一定是封闭生态。

李映提到,参考PC时代的苹果,以及更早的IBM小型机时代,由于这是新市场,需要速度,而在需要速度的时候封闭的生态发展会更快,不需要权衡太多。

但从长远来看,开放生态将迎来最终的胜利,这是一场长期的比赛。“从IT多年发展历程来看,开放的AI生态一定会迎头赶上,而且会是最后的赢家。这个赢并不只代表营收如何,而是从创新、从整个产业角度来说是必然的。”李映重申了对AI开放生态的信心。

平台注册入口