语言模型“混乱”频出 英伟达推出AI“防火墙”
Hawk insight
2023-04-27 11:41:32
2.97W
AI的强势发展离不开英伟达强大的芯片。据悉,近期随着越来越多ChatGPT等生成式AI的出现,许多用户在使用时发现,这些语言模型有时会出现不正常的行为,即表述错误的事实和输出一些不良话题,甚至还有导致安全风险的可能。
AI的强势发展离不开英伟达强大的芯片。据了解,近期随着越来越多ChatGPT等生成式AI的出现,许多用户在使用时发现,这些语言模型有时会出现不正常的行为,即表述错误的事实和输出一些不良话题,甚至还有导致安全风险的可能。
为了解决这一问题,当地时间4月26日,英伟达发布了一款名为NeMo Guardrails的新软件,该软件能够为AI模型设置“防火墙”,避免AI输出一些不良的内容。
据悉,NeMo Guardrails是一个软件层,位于用户和AI模型之间,可以在模型输出不良内容之前进行拦截和修改。例如,如果用户需要一个针对特定方向的AI,就可以利用该软件来限制AI至输出对应方面的内容,而不谈论不相关的话题。
此外,该软件还能够利用一个AI模型检测另一个AI模型,如果两个模型输出的答案不一致,软件将直接输出“我不知道”的回答。通过这种方式,人工智能“胡说八道”的情况会得到有效降低,一些可能存在危险的回复也能够被直接拦截。
英伟达应用研究副总裁乔纳森·科恩(Jonathan Cohen)表示:“每个人都意识到生成式大语言模型的力量,以一种安全可靠的方式部署它们非常重要。”英伟达将NeMo Guardrails作为开源软件提供,并将持续对其进行更新。
·原创文章
免责声明:本文观点来自原作者,不代表Hawk Insight的观点和立场。文章内容仅供参考、交流、学习,不构成投资建议。如涉及版权问题,请联系我们删除。