Meta解散内部AI安全类部门 将专注于生成式AI
11月18日,Meta表示,公司已解散其Responsible AI部门。一直以来,该部门致力于监管其人工智能企业开发和部署的安全性。Responsible AI里面的大多数成员已被重新分配到Meta的生成人工智能产品部门。
11月18日,Meta表示,公司已解散其Responsible AI部门。一直以来,该部门致力于监管其人工智能企业开发和部署的安全性。
Meta的发言人表示,公司此举是为了让员工更接近核心产品和技术的开发。发言人表示,Responsible AI里面的大多数成员已被重新分配到Meta的生成人工智能产品部门(Generative AI)。
Meta的Responsible AI部门成立于2019年。该部门的目标是监控Meta人工智能训练中的问题,包括确保人工智能接受多样化数据集的训练,并防止Facebook等平台出现审核问题。
该部门的解散并非没有征兆。今年早些时候就有被媒体报道称,Responsible AI部门几乎是一个“空壳”,基本上没有自主权,而且官僚主义盛行,效率低下。
另外,Responsible AI解散后,将有一部分成员会投入到Meta的人工智能基础设施部门进行工作,该部门致力于构建和运营人工智能产品的系统和工具。
尽管Responsible AI员工现已分散在其他组织中,但Meta的发言人指出:“我们将继续优先考虑并投资于安全和负责任的人工智能开发,这些变化将使我们能够更好地扩展规模,以满足未来的需求。”
相比起Responsible AI,Meta的Generative AI部门要“年轻”许多,是今年2月份才刚成立的。据悉,该部门正在致力于开发类似于ChatGPT的产品。
自人工智能热潮兴起以来,Meta是一直在追赶AI的大型科技公司之一。设立Generative AI就是为了追赶谷歌、微软等其他竞争对手的脚步。在投入大量资金和人力之后,Meta今年也陆续发布了一些AI成果。
今年10月,Meta开始推出生成式人工智能工具,可以为所有广告商创建图像背景和书面文本变体等内容。另外,Meta的人工智能产品组合还包括其语言模型“Llama 2”和名为Meta AI的人工智能聊天机器人,可以生成文本响应和逼真的图像。
今年7月,Anthropic、谷歌、微软和OpenAI成立了一个行业小组,专门致力于在人工智能不断进步的情况下制定更为安全的行业标准。虽然Meta并没有在该行业小组里面,但是在过去一段时间,Meta一直公开呼吁负责任地开发人工智能,但现在却突然解散与人工智能安全相关的部门,这不免让外界产生担忧。
此前,Meta就因审核方面存在许多问题饱受外界质疑,包括侵犯个人隐私权,以及WhatsApp等平台上存在的歧视问题等等。
·原创文章
免责声明:本文观点来自原作者,不代表Hawk Insight的观点和立场。文章内容仅供参考、交流、学习,不构成投资建议。如涉及版权问题,请联系我们删除。