大公司正在寻找方法来确保人工智能的道德和法律发展

   日期:2024-08-08     来源:本站    作者:admin    浏览:75    

  

  

  欧洲已经向前迈进了一步,批准了世界上第一个监管人工智能的法规。这将根据其风险对该工具的应用进行分类,并对违规者进行严厉的制裁,最高可达3500万欧元或业务量的7%,最低可达750万欧元或业务量的1.5%。欧盟在2026年最终实施之前规定了一个过渡期,企业必须利用这段时间确保其开发符合法律规定。IBM、英特尔或谷歌等支持监管的巨头开发了平台和系统,以确保人工智能的发展是合乎道德的、透明的和无偏见的,因为它是不可阻挡的。通过这种方式,企业提供了符合第一部人工智能法律——《欧洲人工智能法案》(European AI act)的公式。

  科技咨询公司Entelgy指出了公司必须考虑的三个关键因素:那些管理个人、医疗、招聘或决策数据的公司必须披露算法是如何工作的,以及它在欧洲注册表中生成的内容;虽然不是强制性的,但建议建立人力监督机制;大型语言模型(llm)将不得不引入安全系统,开发人员将有义务对他们使用的受版权保护的材料保持透明。

  “我们必须确保我们开发的技术从一开始就是负责任和合乎道德的。这是一个很好的机会,但它也带来了挑战,”IBM副总裁兼隐私与信任主管克里斯蒂娜?蒙哥马利警告说。与其他支持自由发展的公司不同(欧洲公司的150名高管已经将自己定位为反对规范的公司),IBM致力于“为社会提供保护壁垒的智能监管,同时促进创新”。该领域的另一家巨头英特尔也同意这一观点,该公司首席技术官格雷格?拉文德(Greg Lavender)表示:“每个人都可以也应该使用人工智能,这样才能负责任地部署它。”

  两家公司都开发了自己的平台,以确保按照政府和公司都认为必要的标准一点一点地发展。

  IBM的解决方案是watson .governance,这是一个包含道德数据管理、风险管理和法规遵从性的平台。蒙哥马利详细介绍说:“它的开发是为了帮助组织负责任地应用人工智能,遵守当前的政策,并为未来的监管做好准备。”

  IBM欧洲、中东和非洲地区总裁兼总经理Ana Paula Assis基于对来自德国、法国、意大利、西班牙和瑞典的1600名商业领袖的调查,为这些工具的必要性进行了辩护。根据调查结果,82%的公司经理已经采用或实施了人工智能,或计划在明年这样做,几乎所有(95%)的公司经理都这样做或打算这样做,因为人工智能在决策、管理和商业战略方面是有效的。微软中东技术总监哈泽姆?纳比赫表示:“任何公司的生产率都能提高30%至50%。”

  但是,这个具有巨大潜力的工具面临着挑战:必要的道德框架,对新技能的需求以及成本的增加,以便其开发除了有效外,还公平(没有偏见)和透明(可解释和可衡量),并保证安全和隐私。

  IBM的建议是,它可以被任何公司使用,而不考虑实现的计算机模型,无论是开源的还是单独开发的或由其他公司开发的。阿西斯解释说:“我们的战略和架构是开放的、混合的和多模型的,实际上,我们为客户提供了在最适合他们的环境中实施我们的解决方案的灵活性。”

  另一家巨头提出的解决方案是英特尔信托管理局,基于类似的理念:“一个开放的、以开发者为中心的生态系统,确保每个人都能获得人工智能的机会。”该公司首席技术官表示:“它们是简化安全人工智能应用程序开发的工具,并促进维护和扩展这些解决方案所需的投资,以便将人工智能带到任何地方。”

  拉文德解释说:“如果开发人员在硬件(设备)和软件(程序)的选择上受到限制,那么在全球范围内采用人工智能的用例范围将受到限制,它们能够提供的社会价值也可能受到限制。”

  英特尔的战略不仅针对大公司。它还在“创新2023”期间启动了人工智能个人电脑加速计划,这是一项旨在加快个人电脑(PC)领域人工智能发展步伐的倡议。

  该项目旨在将独立的硬件和软件供应商与英特尔的资源联系起来,包括人工智能工具、协同工程、团队、设计资源、技术专长和商业化机会。该公司辩称:“这些资源将有助于加速新的用例,并将整个行业与人工智能解决方案联系起来。”项目合作伙伴包括Adobe、Audacity、BlackMagic、BufferZone、Cyberlink、DeepRender、MAGIX、Rewind AI、Skylum、Topaz、VideoCom、Webex、Wondershare Filmora、XSplit和Zoom。

  谷歌已经为其最新的人工智能模型Gemini开发了专门的保护系统,用于新标准将要求的个人数据保护等方面。“我们有一整套控制措施来确保,对于使用Vertex AI的企业来说,你的数据是你的,而不是其他人的。它们没有泄露,没有与任何人分享,甚至谷歌也没有。Vertex提供了一长组控制、遵从性和审计功能,”Google Cloud主管Thomas Kurian在Gemini开发工具的演示中解释道。

  最大的挑战之一是偏见,算法中的缺陷可能会在整个人工智能系统中传播,低估了人类的复杂性。从这个意义上讲,索尼和meta研究人员在国际计算机视觉会议(ICCV)上发表的两篇文章提出了测量偏差的方法,以验证数据的多样性,而这些数据不仅有助于做出决策。还可以训练机器。

  索尼人工智能伦理研究员威廉·通(William Thong)在《麻省理工科技评论》(MIT Technology Review)上解释了他们的提议:“它被用来衡量计算机系统中的偏见,例如,通过比较浅肤色和深肤色的人的人工智能模型的准确性。”

  索尼的工具扩大了计算机可识别肤色的范围,不仅可以看它是浅色还是深色,还可以看不同颜色的深浅。

  为了简化偏见评估,meta还开发了计算机视觉评估公平性(FACET)工具。该公司的人工智能研究员劳拉·古斯塔夫森(Laura Gustafson)表示,该系统基于32000张人类图像,这些图像是人们根据13个可感知参数标记的,比如年龄(年轻或年老)、肤色、性别、头发颜色和质地等。别人。meta已经在网上免费提供数据,以帮助研究人员。

  安全公司卡巴斯基(Kaspersky)最近在西班牙管理人员中进行的一份报告强调了谨慎的重要性,该报告显示,96%的西班牙受访者承认,在近一半的实体(45%)中,他们的员工经常使用生成式人工智能,却没有采取措施防范风险。根据同一家公司的另一项研究,25%的使用生成式人工智能的人没有意识到它可以存储IP地址、浏览器类型和用户设置等信息,以及最常用功能的数据。

  卡巴斯基(Kaspersky)首席安全分析师戴维?埃姆(David Emm)警告称:“生成式人工智能系统显然在不断发展,它们不受限制的运行时间越长,保护业务领域就越困难。”

  您可以在Facebook和x中关注EL PAíS Technology,或者在这里注册以接收我们的每周通讯。

  无限制地阅读

  _

 
打赏
 
更多>同类文章

推荐图文
推荐文章
点击排行