您的位置:首页 >科技 >

克服对生成人工智能最大担忧的4种方法

从总结文本到创建图片和编写代码,OpenAI的ChatGPT和Microsoft的Copilot等工具可以在几秒钟内为具有挑战性的问题提供看似出色的解决方案。然而,生成式人工智能的神奇能力可能伴随着一些无益的技巧。

无论是道德问题、安全问题还是幻觉,用户都必须意识到可能损害新兴技术优势的问题。在这里,四位商业领袖解释了如何克服生成式人工智能的一些重大问题。

1.以合乎道德的方式利用新机会

挪威奥斯陆蒙克博物馆创新与研究主管比吉特·阿加(BirgitteAga)表示,对人工智能的许多担忧都与人们不了解其潜在影响有关,而且这是有充分理由的。

即使像ChatGPT这样备受瞩目的生成式AI工具,向公众开放也才12个多月。虽然很多人都接触过这项技术,但很少有企业在生产环境中使用过该工具。

阿加表示,组织应该让员工有机会了解新兴技术能够以安全可靠的方式做什么。“我认为降低每个人参与的门槛是关键,”她说。“但这并不意味着不加批判地去做。”

阿加说,当你的员工讨论如何使用人工智能时,他们还应该考虑一些重大的道德问题,例如偏见、刻板印象和技术限制。

她在与ZDNET的视频聊天中解释了博物馆如何与技术专家TCS合作,寻找利用人工智能帮助更广泛的观众更容易接触艺术的方法。

“通过TCS,我们在每次会议上都在道德和道德方面真正保持一致,”她说。“找到在这个层面上与你真正契合的合作者,然后从那里开始构建,而不仅仅是寻找做很酷的事情的人。”

2.建立一个工作组来降低风险

Gartner杰出副总裁分析师AvivahLitan表示,需要注意的关键问题之一是来自IT部门以外人员的变革压力。

“企业希望全力以赴,”她说,指的是整个组织的专业人员都采用生成式人工智能工具,无论是否有负责人的同意。“安全和风险人员很难掌握这一部署、跟踪人们在做什么并管理风险。”

因此,两个群体之间存在很大的紧张关系:想要使用人工智能的人和需要管理其使用的人。

“没有人想扼杀创新,但人们以前从未遇到过这样的安全和风险问题,”她在与ZDNET的视频聊天中说道。“尽管人工智能已经存在多年,但在生成式人工智能兴起之前,他们不必真正担心任何这项技术。”

利坦表示,消除担忧的最佳方法是成立一个人工智能特别工作组,吸引来自整个企业的专家,并考虑隐私、安全和风险。

“然后每个人都在同一页面上,所以他们知道风险是什么,他们知道模型应该做什么,并且最终会获得更好的性能,”她说。

Litan表示,Gartner研究表明,三分之二的组织尚未建立人工智能工作组。她鼓励所有公司创建这种跨业务团队。

“这些工作组支持达成共识,”她说。“人们知道会发生什么,企业可以创造更多价值。”

3.限制你的模型以减少幻觉

丰田汽车欧洲公司数据和分析战略高级经理蒂埃里·马丁(ThierryMartin)表示,他对生成式人工智能最大的担忧是幻觉。

当他测试用于编码目的的生成式人工智能时,他亲眼目睹了此类问题。

马丁表示,除了个人探索之外,企业还必须关注他们使用的大型语言模型(LLM)、他们需要的输入以及他们推出的输出。

“我们需要非常稳定的大型语言模型,”他说。“当今许多最受欢迎的模特都接受过很多方面的训练,比如诗歌、哲学和技术内容。当你提出问题时,就有可能产生幻觉。”

在接受ZDNET的一对一视频采访时,Martin强调企业必须找到方法来创建更受限制的语言模型。

“我想留在我提供的知识库内,”他说。“然后,如果我向我的模型询问一些具体问题,它会给我正确的答复。因此,我希望看到与我提供的数据更加相关的模型。”

免责声明:本文由用户上传,如有侵权请联系删除!