b谷歌正准备发布一个名为Gemini的大型法学硕士。
但这种规模的法学硕士可能会变得罕见。
该行业正在为一段时间的裁员做准备。
NEW LOOK注册获取今日市场、科技和商业领域最重要新闻的内幕消息——每日提供。阅读预览广告
随着硅谷等待b谷歌推出一款巨大的新人工智能模型,它的目标是与OpenAI的ChatGPT背后的巨大模型相抗衡,秋天到来之际,有大量的悬念。
由于人工智能行业正在为大规模裁员做准备,这种情况可能会非常罕见。
迄今为止,生成式人工智能的繁荣是由被称为大型语言模型(llm)的算法推动的。它们被描述为“大”,因为它们是为了处理来自互联网的大量数据而建造的。这就是为什么像ChatGPT这样的应用程序的响应感觉如此人性化。
要了解这些模型有多大,请考虑OpenAI的GPT模型。ChatGPT创始人的最新人工智能模型GPT-4被认为是在超过一万亿比特的数据(称为令牌)上进行训练的。
广告广告
据The Information报道,为了与GPT-4竞争,谷歌即将推出的Gemini模型——即将发布,有一小群公司开始对其进行测试——可以用远远超出GPT-4的数据规模进行训练。
尽管一段时间以来,越来越大似乎是一条不太可能的前进道路,OpenAI首席执行官萨姆·奥特曼(Sam Altman)今年早些时候曾表示,“我们正处于一个时代的尽头,这个时代将是这些巨大的模型,”原因越来越清楚。
首先,建立大型模型是一项昂贵的业务。据《连线》杂志报道,奥尔特曼在发表评论时表示,培训GPT-4的成本超过1亿美元。
其次,这些模型一直受到偏见、事实错误和幻觉等问题的困扰。这使得这些模型成为立法者监管关注的焦点,他们担心这些模型可能会对作为准确信息来源的网络产生不稳定影响。
广告广告
第三,寻求利用生成式人工智能的好处的公司可能会担心,如果它们的敏感数据被输入到一个处理其他地方数据的模型中,它们的敏感数据可能会受到多么好的保护。这就是为什么一些公司已经发布了禁止使用聊天语言的禁令。
对于技术创新研究所人工智能交叉中心部门的代理首席研究员兼执行主任Ebtesam Almazrouei博士来说,未来的重点不一定是人工智能模型处理的数据量。“重要的是质量,”她告诉Insider网站。
虽然Almazrouei位于阿布扎比的研究所本月发布了一款名为Falcon 180B的新LLM,它的大小是meta的Llama 2的2.5倍,但她意识到对LLM进行“微调”以满足客户对更“专业”的需求的重要性。
她说:“如果我们想从不同领域和行业的这些大型语言模型中获得我们所希望的好处,那么专业的法学硕士就是我们要去的地方。”
广告广告
像GPT-4和Gemini这样的通用的、大规模的llm可能会继续占据一席之地,但我们仍然可以预期,随着公司需要为他们量身定制的人工智能,大规模的裁员将开始。