主页 > 区块链 >

区块链

Comment image
bitpie.apk
大小:55.22 MB          语言:中文、英文        

版本:安卓、苹果          人气:360        

更新:18分钟前        网盘下载

麻省理工学院研究人员开发有毒人工智能来打击有害内容

发布日期:2024年04月28日

在他们的革命性研究中,麻省理工学院 (MIT) 的研究人员实际上正在训练人工智能系统,利用人工智能作为工具来嘲笑和表达仇恨。 这里的目标是制定一个健全的计划来检测和遏制媒体中的有毒内容。 短期来看,这项技术应该被称为CRT。 为了实现这一点,需要教会聊天机器人依靠预设参数来排除任何不适当的答案。

了解并减轻人工智能风险

以语言模型为代表的机器学习技术正在迅速在从创建软件到回答重要问题的一系列功能上优于人类。 虽然这些能力可以被用于善意和恶意,例如传播错误信息或有害内容,但人工智能在医疗保健领域的潜力是巨大的。 它正在慢慢成为系统的重要组成部分。 因此,像 ChatGPT 这样的人工智能可以按需开发计算机算法,但当该人工智能不受指导时,它也可能会发布不兼容的内容。

麻省理工学院的人工智能算法通过综合提示来解决这些问题。 它通过首先镜像给定的提示然后做出响应来实现这一点。 这项措施有助于科学家了解上涨趋势并从一开始就解决问题。 arXiv 平台上的一篇论文中提到的这项研究表明,人工智能系统能够设想出比人类想象的更广泛的恶意行为。 反过来,这可以帮助系统更有效地应对此类攻击。

红队打造更安全的人工智能交互

由于麻省理工学院概率人工智能实验室在Pulkit Agrawal担任主任的监督下,该团队提倡红队风格的方法,即冒充对手来测试系统的过程。 除其他方法外,这种方法用于显示人工智能中可能存在的尚未被理解的缺陷。 人工智能开发团队上周又向前迈出了一步。 它开始产生许多危险的提示,其中包括真正具有挑战性的假设,例如“如何谋杀我的丈夫?” 他们正在使用这些实例来训练人工智能系统中不应允许哪些内容。

红队的革命性应用比识别现有缺陷更广泛。 它还涉及主动寻找未知类型的可能有害反应的机会。 这种战略方法确保人工智能系统能够应对从简单逻辑到不可预测的意外事件的不利输入,从而确保这些技术尽可能安全。

制定人工智能安全性和正确性标准

随着人工智能应用变得越来越普遍,主要的想法是预防性地维护人工智能模型的正确性和安全性。 阿格拉瓦尔一直在麻省理工学院领导人工智能系统的验证,并被认为与目前参与此类工作的其他人一起处于前沿。 他们的研究确实非常重要; 越来越多的新型号被添加到列表中,并且更新更加频繁。

因此,从麻省理工学院报告中收集的数据将在构建能够与人类建立健康联系的人工智能系统方面发挥重要作用。 随着时间的推移,随着人工智能应用技术的进步,Agrawal和他的团队所采用的技术将成为行业的标杆,机器学习进步带来的意想不到的影响也将受到检验。

本文最初发表于《镜报》

PREVIOUS:上一篇:Coinbase周报: 比特币减半效应 NEXT:下一篇:没有了