广告

人工智能时代来临:AI需要伦理吗?

2025-02-14 17:41:31 Gianluca Angelone 阅读:
如今,人工智能已成为人们老生常谈的话题,因此,有必要明确什么是人工智能,是否存在伦理准则以及需要考虑的潜在风险,以便正确使用人工智能···

人工智能的研究始于20世纪初,但直到最近几十年才得到快速发展和广泛应用。如今,人工智能已融入许多日常应用,成为一项无处不在的技术。人工智能应用的主要驱动力是硬件能力的增强和海量可用数据,以及它能够解决复杂问题并快速预测人类需要消耗大量时间或难以完成的任务。9ewednc

如今,人工智能已成为人们老生常谈的话题,因此,有必要明确什么是人工智能,是否存在伦理准则以及需要考虑的潜在风险,以便正确使用人工智能。9ewednc

人工智能是计算机科学的一个分支,专注于创建能够模拟人类能力的系统,例如视觉感知、决策和从经验中学习。人工智能系统使用各种类型的算法来执行这些任务,包括深度学习(使用神经网络处理复杂的非结构化数据)、机器学习(包括决策树、贝叶斯分类器和聚类技术等方法)和模糊逻辑(帮助系统处理决策中的不确定性和不精确性)。人工智能使机器能够从数据中学习并随着时间的推移提高其性能,而无需为每个任务进行明确的编程。9ewednc

人工智能有两种类型:强人工智能和弱人工智能。强人工智能是指具有自我意识的系统,而弱人工智能包括所有能够自主执行复杂任务但没有自我意识的系统。9ewednc

人工智能应用比比皆是,包括语音助手(根据先前的选择推荐下一部电影或要购买的东西)、自动驾驶汽车以及生成软件(模拟人类对话或创建和制作动画图像)。这些系统与传统软件或自动系统的主要区别在于能够从“经验”或过去的数据中学习,因此,人工智能具有“智能”。 人工智能还可通过其创造力来模仿人类智能,现代的生成式人工智能(如大型语言模型)可以生成文本、图像或视频,或修改现有内容。9ewednc

综上所述,我们必须扪心自问,人工智能的开发和使用是否会给用户甚至整个人类带来风险。这就产生了几个问题:这项技术是否应该或能否受到伦理限制?如果机器可以决定一项影响人类生活的任务,谁应该对后果负责:机器的主人、程序员还是其他人?此外,如果我们在人工智能系统中实施伦理推理,而世界各地对不同伦理问题有不同的看法,应该采用什么标准?如果一个自主系统能够发展自己的伦理规范,情况会怎样?也许我们还没有准备好。9ewednc

然而,应该采取一些最低限度的规则来防止滥用或危险的使用人工智能。联合国教科文组织发布了人工智能伦理原则,该准则于2021年11月被所有193个会员国采用。该准则强调了四个核心价值观:9ewednc

  • 人权与尊严
  • 和平公正的社会
  • 多样性和包容性
  • 环境繁荣

他们还概述了10项原则——相称性、安全、隐私、多利益相关方治理、责任、透明度、人为监督、可持续性、意识和公平性——并为数据治理、环境、性别、教育、研究、健康和社会福祉提供了政策行动领域。9ewednc

例如,OpenAI在ChatGPT中实施了一些限制,正如它在对特定问题的回答中所报告的那样:9ewednc

“作为OpenAI开发的人工智能,我遵守严格的伦理准则,旨在确保负责任、安全和相互尊重的互动。这些包括:9ewednc

  • 隐私和保密:我不会收集或存储个人信息,并确保始终尊重用户的隐私。
  • 安全:我避免提供可能对个人身体或精神造成伤害的建议,并且我不支持危险或非法的行为。
  • 非歧视:我努力提供公正的回应,避免强化刻板印象或歧视性观点。
  • 政治和意识形态中立:我保持公正,不支持任何特定的政治或意识形态立场。
  • 敏感内容:我避免讨论那些没有适当背景就可能让人深感痛苦的话题。
  • 法律和伦理标准:我不认可非法或不道德的活动。
  • 透明度:我的目标是提供清晰、准确和易懂的答案,以帮助用户做出明智的决定。

这些准则确保我的回答合乎伦理、实用,并且符合安全和对所有用户的尊重。”9ewednc

在这个回答中,有关于生成式人工智能以及每个从数据中学习的系统的主要观点:它们如何使用数据并尊重用户的隐私。其他观点与“合法”和“公正”的概念有关,但谁来定义什么是合法、伦理和安全的?程序员,基于他们的伦理规范?还是政府?还是其他人?也许没有一个准确的答案。9ewednc

其他人提出的其他问题与人工智能的快速发展有关。从“伦理”角度来看,这项技术应该可供每个国家的每个人使用,但它却正在成为一种战略资产:开发和拥有人工智能的人比其他人都更具优势,这可能会导致未来的冲突。9ewednc

还有一个问题是,AI会被恶意利用。想想生成式AI可能会发生什么:如今,我们可以拍摄一个人的照片,将其嵌入AI生成的视频中,并添加用该人的声音生成的对话,然后你就有了所谓的“深度伪造”。 虽然这样做可能是无辜的,例如制作视频与朋友开玩笑,但它也可以用来诽谤某人。虽然政客或名人可能有资源证明视频是深度伪造的,但普通人如何保护自己免受这种新形式的网络霸凌,或者在被指控犯有非法行为时证明自己的清白?幸运的是,AI生成的视频和图像仍然不完善,因此在很多情况下,检测深度伪造很简单。9ewednc

开发人员和技术人员应该集中精力开发能够验证照片或视频的系统。该领域已经存在一些研究。例如,一些系统可以识别某些内容是由人类还是生成式人工智能编写的。虽然它们仍然不准确,但如果我们继续投资研究,几年后就可以得到改善。同时,作为人工智能的用户,每个人都应该明白,数字世界中并非所有信息都可以被信任。9ewednc

李飞飞曾任谷歌副总裁、Google Cloud AI/ML首席科学家,撰写了300多篇科学论文,是ImageNet(该数据集推动了物体识别领域的重大进步)的创建者。她撰写了《我眼中的世界:人工智能黎明时的好奇心、探索和发现》(The Worlds I See: Curiosity, Exploration, and Discovery at the Dawn of AI)一书,并表示科学之美与曼哈顿计划之类的计划密不可分。尽管许多人担心人工智能会以刺客机器人或大规模监视的形式控制人类,甚至只是将任务自动化,导致全球80亿人失业,但我们必须考虑到,这些都是极端情况,它们可能不会在明天发生。9ewednc

人工智能有可能带来巨大的好处和工具,简化我们的生活。然而,像所有技术一样,它也存在风险,必须仔细考虑,以避免创造一个乌托邦式的未来。虽然人工智能为改善我们的世界带来了巨大的希望,但我们必须投资研究并制定适当的保障措施来减轻其风险。9ewednc

(原文刊登于EDN姊妹网站Embedded,参考链接:Is Ethics Needed for Artificial Intelligence?,由Ricardo Xie编译。)9ewednc

责编:Ricardo
本文为电子技术设计原创文章,未经授权禁止转载。请尊重知识产权,违者本司保留追究责任的权利。
  • 微信扫一扫
    一键转发
  • 最前沿的电子设计资讯
    请关注“电子技术设计微信公众号”
广告
热门推荐
广告
广告
广告
EE直播间
在线研讨会
广告
面包芯语
广告
向右滑动:上一篇 向左滑动:下一篇 我知道了