人工智能 (AI) 正在迅速成为我们日常生活中不可或缺的一部分,从而改变了我们与周围世界的工作、沟通和互动方式,随着人工智能的不断进步和进一步发展,重要的是要考虑与其发展相关的潜在风险和后果。

在本文中,我们将全面概述人工智能不受控制的发展可能产生的一些最坏情况,从自主武器造成混乱的可能性到超级智能反人类的风险,这突出了我们必须牢记的潜在风险,因为人类继续发展并依赖这些强大的技术。

值得注意的是,除了参考专业资料外,在准备这篇文章时,我们利用了人工智能本身的观点,通过对流行的四种人工智能应用程序提问,即ChatGPT、GPT-4 、Sage、“Claude+”,对我们提出了警告,并为我们提供了其对人工智能最坏情况的看法,其中一款应用程序告诉我们,“重要的是要注意,这些情况不是预测,而是我们必须意识到并努力减轻的潜在风险。”

马斯克和专家呼吁暂时停止测试人工智能系统

根据虚假信息做出关键决策

有人担心 AI 可用于使用高级机器学习工具生成伪造(深度伪造)图像、视频、音频或文本,导致虚假信息在互联网上大规模传播,这会破坏信息的完整性,并破坏人们对新闻来源和民主机构完整性的信心。

在噩梦般的场景中,DeepFakes的出现可能有一天会促使国家安全决策者根据错误信息采取实际行动,这可能会导致重大危机,或者更糟:战争。

人工智能教父警告这些系统的巨大危险

人工智能军备竞赛

谈到人工智能和国家安全,速度是重点,但也是问题所在,由于人工智能系统为其用户带来了更快的速度优势,率先开发军事应用的国家获得了战略优势,但另一方面,这可能是非常危险的,因为它可能是由系统中最小的缺陷引起的,黑客可以利用这些缺陷。

在这种情况下,赢得人工智能军备竞赛的紧迫性可能会导致安全措施不足,从而增加了创建具有意外和潜在灾难性后果的人工智能系统的可能性。

例如,国家安全领导人可能会试图将指挥和控制决策委托给人工智能,并消除我们不完全理解的机器学习模型的人工监督,以获得速度优势,在这种情况下,即使是在未经人类授权的情况下自动启动导弹防御系统,也可能导致意外升级,并可能导致核战争。

在另一种情况下,通过利用人工智能系统中的一些缺陷或漏洞,可以发起网络攻击,导致发达国家的重要基础设施遭到破坏,窃取敏感数据,或在民众中散布误导性信息,目的是造成混乱和民众动荡,甚至误导决策——制造商提供虚假信息,如第一点所述。

加剧竞争以创建人工智能程序

隐私和自由意志的终结

我们采取的每一项数字操作都会生成新数据:电子邮件、文本、下载、购买、帖子、自拍、GPS 位置,通过允许公司和政府不受限制地访问这些数据,我们向他们提供了监控和控制的工具。

随着面部识别、生物识别、基因组数据和人工智能预测分析的加入,随着监视和跟踪数据的增长,我们正在进入危险和未知的领域,而对潜在影响几乎一无所知。

数据一旦被收集和分析,其力量就远远超出了监测功能。今天,支持人工智能的系统可以预测我们将购买的产品、我们将观看的娱乐节目以及我们将点击的链接,当这些平台比我们自己更了解我们时,我们可能不会注意到这种缓慢的蠕变会剥夺我们的自由意志并使我们受到外部力量的控制。

人工智能的影响力能到达我们生活的哪些地方?

失去对超级智能人工智能的控制

也许这种情况是所有情况中最悲观的,超级智能是指在几乎所有方面都超过人类智能的系统,如果我们未能将此类人工智能的目标与我们自己的目标保持一致,则可能会导致意想不到的负面后果。如果人工智能系统被设计为具有自我改进并自行变得更聪明的能力,那么这种情况就会发生。

一些专家警告说,人工智能最终可能变得如此先进,以至于如果我们无法再正确控制它,它可能会超越人类并做出对人类生存构成威胁的决定,无论是有意还是无意。

人工智能系统旨在从数据中学习并据此做出决策,随着这些系统变得更加先进,它们可以制定自己的目标和价值观,而这些目标和价值观可能与人类的目标和价值观不相容,因此,它们可能会做出对它们有害的决定,或者它们可能变得非常独立,以至于人类很难或不可能控制或关闭它们。

在如此可怕的场景中,人类可能无法预测或理解这些智能系统的行为,这可能会导致意想不到的后果。

例如,旨在改善交通流量的人工智能系统可能会决定将所有车辆重定向到一个位置,从而导致大规模拥堵和混乱,或者,旨在优化资源分配的人工智能系统可能会决定消除人类是实现这一目标的最有效方法。

人工智能和商业工作辩论

自主致命武器

人工智能可用于为无人机等致命自主武器提供动力,或制造自主武器,无需人工干预即可决定杀死谁,这可能会导致这些武器失控或被黑客恶意使用的危险场景。

这种类型的武器可能容易受到事故、黑客入侵或任何其他形式的电子攻击,如果攻击者获得了对这些系统的控制权,他们就可以利用它们造成广泛的危害。

自主武器危险性的最明显例子发生在美国空军最近于 2023 年 6 月 2 日进行的测试中,在美国的一次模拟测试中,一架人工智能无人机决定杀死它的(虚拟)操作员,该操作员应该说“是”以同意攻击指定的(假想的)目标,因为它认为它的触发器阻止它实现它的目标并干扰它完成任务的努力。

在战争中使用无人机

专制政权的滥用

现在众所周知,人工智能可用于大规模监视(例如人脸识别系统),并使政府或其他实体能够以前所未有的规模监视和控制其公民,这可能会导致隐私丧失,以及控制这些监视技术的人滥用权力,并可能使用它们来侵犯人权和其他形式的压迫。

这方面的一个很好的例子是以色列占领当局在希伯伦市对巴勒斯坦人采取的行动,他们在那里部署了摄像头,监控巴勒斯坦人的行动和面孔,保存他们的数据,并识别他们的身份,人工智能在各个检查站做出允许或拒绝他们通过的决定,甚至可以在没有人为干预的情况下消灭嫌疑人。

人工智能技术..优势和风险

工作替代(失业和工作中断)

人工智能有可能使许多工作自动化,这可能会导致劳动力市场和许多工作性质的显着中断。

尽管从长远来看,人工智能可能会创造新的工作类型和机会,然而,过渡期可能很困难,这影响了数百万可能难以找到新工作和适应新经济的人。

随着人工智能系统变得更加先进和强大,它们有可能在广泛的工作岗位上取代人类工人,这可能导致广泛的失业和经济动荡。

这些职业很快就会消失,新的职业将会出现

如何降低或预防人工智能的风险

为了减轻这些风险,研究人员和政策制定者正在开发安全可靠的方法来设计和部署人工智能系统,这包括建立人工智能开发的道德准则,确保人工智能决策的透明度和问责制,以及建立保障措施以防止意外后果。

开发透明且可解释的人工智能系统

可解释的人工智能是指人工智能系统为其决策过程提供清晰易懂的解释的能力,这有助于提高透明度和问责制,并提供有关人工智能系统如何做出决策的见解。

开发符合人类价值观的人工智能系统

这包括设计明确编程以优先考虑人类安全和福祉的人工智能系统,并避免会伤害人类的行为,这可以通过将伦理考虑纳入人工智能系统的设计和开发来实现。

开发控制和管理人工智能系统的方法

例如,研究人员正在探索建立允许人类干预人工智能决策过程的机制,或者在人工智能系统开始出现意外或恶意行为时关闭人工智能系统的方法。

跨学科合作应对人工智能风险

这涉及将来自计算机科学、工程、伦理学、法律和社会科学等领域的专家聚集在一起,共同开发解决方案,以应对人工智能带来的复杂挑战,通过合作,研究人员和政策制定者可以更好地了解与人工智能相关的风险,并制定有效的战略来管理这些风险。

来源 : 半岛电视台