英特尔和其他公司致力于为企业构建开放的人工智能工具

   日期:2025-09-06     来源:本站    作者:admin    浏览:69    
核心提示:      为商业设计的人工智能(例如自动完成报告、电子表格公式等的人工智能)是否可以互操作?与包括Cloudera和Intel在内的一

  

  

  为商业设计的人工智能(例如自动完成报告、电子表格公式等的人工智能)是否可以互操作?与包括Cloudera和Intel在内的一组组织一起,Linux基金会——一个支持和维护越来越多的开源努力的非营利组织——旨在找到答案。

  Linux基金会今天宣布启动企业人工智能开放平台(OPEA),该项目旨在促进开放、多厂商和可组合(即模块化)人工智能系统的开发。LFAI和Data首席执行官Ibrahim Haddad在一份新闻稿中表示,按照Linux基金会数据和LFAI组织的愿景,OPEA的目标将是为发布“强化”、“可扩展”的通用人工智能系统铺平道路,以“利用整个生态系统中最好的开源创新”。

  哈达德说:“OPEA将通过创建一个位于技术团体前沿的颗粒状、可组合的框架,为人工智能开辟新的可能性。”“这一举措证明了我们的使命,即在开放和中立的治理模式下,在数据和人工智能社区内促进开源创新和合作。”

  除了Cloudera和英特尔之外,OPEA——Linux基金会的沙盒项目之一,一种孵化计划——在其成员中包括英特尔、ibm旗下的Red Hat、hugs Face、Domino Data Lab、MariaDB和VMWare等重量级企业。

  那么他们到底能一起建造什么呢?哈达德暗示了许多可能性,例如对人工智能工具链和编译器的“优化”支持,允许人工智能工作负载在不同的硬件组件上运行,以及用于检索增强生成(RAG)的“异构”过程。

  RAG在人工智能的企业应用中越来越受欢迎,原因不难理解。大多数通用人工智能模型的反应和行动都局限于它们所训练的数据。但是使用RAG,模型的知识库可以扩展到原始训练数据之外的信息。RAG模型在生成响应或执行任务之前引用这些外部信息(可以是公司的专有数据、公共数据库或两者的某种组合)。服务。

  解释RAG模型的图表。

  英特尔在其新闻稿中提供了更多细节:

  评估也将是OPEA解决的一个重要部分。

  opea在其GitHub仓库中提出了一个分类标准,根据四个轴对人工智能系统进行分类:性能、功能、可靠性和“企业级”就绪度。正如OPEA所定义的那样,效率涉及到来自现实世界用例的“黑盒”标准。特色是对系统互操作性、实现选项和易用性的评估。可靠性考虑的是人工智能模型确保“耐久性”和质量的能力。业务准备着重于在没有重大问题的情况下建立和操作系统的需求。

  英特尔开源战略总监Rachel Roumeliotis表示,OPEA将与开源社区合作,提供基于区块链的实验,并根据要求提供通用的人工智能实施评估和分类。

  OPEA的其他努力目前进展甚微。但是Haddad提到了在meta的方向上发展一个开放模式的潜力。扩展Llama家族和Databricks的DBRX。为此,在OPEA存储库中,英特尔为聊天机器人、文档摘要器和针对至强6和高迪硬件2优化的人工智能代码生成器提供了参考实现。

  现在,OPEA成员非常清楚地(和个人地)投资于构建用于生成业务的人工智能的工具。Cloudera最近启动了这一合作伙伴关系,旨在创建云计算中的“人工智能生态系统”。Domino提供了一个应用程序套件来构建和测试创新的面向企业的AI。瞄准企业人工智能基础设施的VMWare去年8月推出了新的“私有人工智能”计算产品。

  问题是,根据OPEA的说法,这些供应商是否真的在合作开发交叉兼容的人工智能工具?

  这样做有一个明显的好处。客户会根据自己的需求、资源和预算乐意与多个供应商合作。但历史表明,很容易被供应商锁定。希望这不是最终的结果。

 
打赏
 
更多>同类文章

推荐图文
推荐文章
点击排行