人工智能(AI)如今已融入智能手机助手、社交媒体信息流、医疗保健和交通运输等各个领域。这些技术带来了前所未有的益处,但同时也伴随着重大风险和挑战。

专家和全球机构警告称,如果没有适当的伦理规范,AI可能复制现实世界中的偏见和歧视,助长环境破坏,威胁人权,并加剧现有的不平等

本文将与INVIAI一起探讨使用AI的风险,涵盖从聊天机器人、算法到机器人等各种AI类型,基于官方和国际权威的洞见。

AI系统中的偏见与歧视

AI面临的一个主要风险是偏见和不公平歧视的固化。AI模型从可能反映历史偏见或不平等的数据中学习,因此AI系统可能基于种族、性别或其他特征差别对待人群,从而延续不公正。

例如,“功能失调的通用AI可能因对受保护特征如种族、性别、文化、年龄和残疾的偏见决策而造成伤害,”这是国际AI安全报告中的观点。

在招聘、贷款或执法中使用的偏见算法已导致不平等结果,严重损害某些群体的利益。联合国教科文组织等全球机构警示,若无公平措施,AI有风险“复制现实世界的偏见和歧视,加剧分裂,威胁基本人权和自由”。确保AI系统基于多元、具代表性的数据训练并接受偏见审计,是防止自动化歧视的关键。

AI系统中的偏见与歧视

虚假信息与深度伪造的危险

AI生成超逼真文本、图像和视频的能力引发了对虚假信息泛滥的担忧。生成式AI可以制作令人信服的假新闻、伪造图片或深度伪造视频,难以与真实内容区分。

世界经济论坛2024年全球风险报告指出,“操纵和伪造信息”最严重的短期全球风险,并强调AI“放大了被操纵和扭曲的信息,可能破坏社会稳定。”

实际上,AI驱动的虚假信息和错误信息构成了“民主进程面临的最大挑战之一”,尤其是在即将举行的全球选举中。合成媒体如深度伪造视频和AI克隆声音可能被用作传播宣传、冒充公众人物或实施欺诈的工具。

官员警告称,恶意行为者可能利用AI发动大规模虚假信息活动,轻易在社交网络上散布假内容,制造混乱。风险在于形成一个公民无法信任所见所闻的愤世嫉俗的信息环境,破坏公共话语和民主。

AI中的虚假信息与深度伪造危险

隐私威胁与大规模监控

AI的广泛应用引发了严重的隐私担忧。AI系统通常需要大量个人数据——从面部和声音到购物习惯和位置——才能有效运行。缺乏强有力的保护措施,这些数据可能被滥用或剥削。

例如,面部识别和预测算法可能实现无处不在的监控,在未经同意的情况下追踪个人行踪或评估行为。联合国教科文组织的全球AI伦理建议明确警告,“AI系统不应被用于社会评分或大规模监控。”此类用途被广泛视为不可接受的风险。

此外,AI驱动的个人数据分析可能揭示我们生活的隐私细节,从健康状况到政治信仰,威胁隐私权。数据保护机构强调,隐私是“保护人类尊严、自主权和行动能力的基本权利”,必须在AI系统生命周期内得到尊重。

如果AI发展超越隐私法规,个人可能失去对自身信息的控制。社会必须确保健全的数据治理、同意机制和隐私保护技术,防止AI技术沦为无节制监控的工具。

隐私威胁与大规模监控

安全失误与意外伤害

虽然AI能以超人效率自动化决策和物理任务,但它也可能以不可预测的方式失效,导致现实世界的伤害。我们将越来越多的安全关键职责托付给AI——如驾驶汽车、诊断病人或管理电网——但这些系统并非万无一失。

故障、训练数据缺陷或意外情况可能导致AI做出危险错误。自动驾驶汽车的AI可能误判行人,医疗AI可能推荐错误治疗,后果可能致命。

鉴于此,国际指南强调应预见并防范AI带来的不良伤害和安全风险“应在AI系统生命周期内避免和解决不良伤害(安全风险)及攻击脆弱性(安全风险),以确保人类、环境和生态系统的安全。”

换言之,AI系统必须经过严格测试、监控,并设计有故障保护措施,最大限度减少故障概率。过度依赖AI也存在风险——如果人们盲目信任自动决策,出现问题时可能无法及时干预。

因此,确保人工监督至关重要。在高风险领域(如医疗或交通),最终决策应由人类判断,正如联合国教科文组织所言,“生死攸关的决策不应交由AI系统。”维护AI的安全性和可靠性是持续挑战,需AI开发者秉持责任文化,精心设计。

AI中的安全失误与意外伤害

就业替代与经济冲击

AI对经济的变革影响是一把双刃剑。一方面,AI能提升生产力并催生全新产业;另一方面,它也带来数百万工人被自动化替代的风险

许多工作——尤其是涉及重复性任务或易于分析的数据——容易被AI算法和机器人取代。全球预测令人警醒:例如,世界经济论坛预计“到2030年将有9200万个工作岗位因AI及相关技术被替代”

虽然经济可能创造新岗位(长期来看甚至可能超过失去的岗位数量),但转型过程对许多人来说将十分艰难。新增岗位通常需要不同且更高级的技能,且多集中于特定科技中心,导致许多被替代工人难以重新就业。

这种劳动力技能与AI驱动新岗位需求之间的不匹配,若不加以解决,可能导致失业率和不平等加剧。政策制定者和研究者警告,快速的AI发展可能引发“劳动力市场动荡和经济权力不平等”的系统性问题。

某些群体受影响更大——例如研究显示,女性或发展中国家工人所占岗位中较大比例面临自动化高风险。若无积极措施(如再培训项目、AI技能教育和社会保障),AI可能加剧社会经济差距,形成技术拥有者获益最多的经济格局。

为应对AI影响,做好劳动力准备至关重要,以确保自动化带来的利益广泛共享,防止大规模失业引发社会动荡。

AI中的就业替代与经济冲击

犯罪滥用、欺诈与安全威胁

AI是一把强大工具,既可用于正当目的,也可能被恶意利用。网络犯罪分子及其他不法分子已开始利用AI增强攻击手段。

例如,AI可生成高度个性化的钓鱼邮件或语音信息(通过克隆他人声音),诱骗受害者泄露敏感信息或转账。它还可自动化大规模黑客攻击,发现软件漏洞,或开发能自适应躲避检测的恶意软件。

人工智能安全中心将AI的恶意使用列为重点关注,指出犯罪分子可能利用AI实施大规模欺诈和网络攻击。英国政府委托的报告明确警告,“恶意行为者可能利用AI进行大规模虚假信息传播、影响行动、欺诈和诈骗。”

AI带来的速度、规模和复杂性可能压倒传统防御——想象一下,一天内成千上万的AI生成诈骗电话或深度伪造视频针对某公司安全。

除金融犯罪外,AI还可能被用于促进身份盗窃、骚扰或制作有害内容(如未经同意的深度伪造色情或极端主义宣传)。随着AI工具日益普及,实施这些恶意行为的门槛降低,可能导致AI辅助犯罪激增。

这要求网络安全和执法部门采用新方法,如开发能检测深度伪造或异常行为的AI系统,并更新法律框架追究违法者责任。实质上,我们必须预见AI赋予正当用户的能力,也可能被犯罪分子利用,并做好相应准备。

AI中的犯罪滥用、欺诈与安全威胁

军事化与自主武器

AI在战争和国家安全领域的应用带来了最令人不安的风险。AI正迅速融入军事系统,催生自主武器(“杀手机器人”)和AI驱动的战场决策。

这些技术反应速度远超人类,但剥夺人类对致命武力使用的控制极具危险。AI控制的武器可能选错目标或以不可预见的方式升级冲突。国际观察者警告,“AI军事武器化”正成为日益严峻的威胁。

若各国竞相装备智能武器,可能引发破坏性军备竞赛。此外,AI还可能被用于网络战,自动攻击关键基础设施或传播宣传,模糊和平与冲突的界限。

联合国表达关切,若AI军事发展集中于少数国家,“可能在未征求民众意见的情况下强加使用方式”,破坏全球安全与伦理。

自主武器系统还带来法律和道德困境——如果AI无人机误杀平民,谁来承担责任?这类系统如何遵守国际人道法?

这些未解问题促使呼吁禁止或严格监管某些AI武器。确保对任何能做出生死决策的AI保持人类监督被广泛认为至关重要。否则,风险不仅是战场上的悲剧性错误,更是战争中人类责任的丧失。

AI中的军事化与自主武器

缺乏透明度与问责制

当今大多数先进AI系统运作如“黑箱”——其内部逻辑即使对开发者也常不透明。这种缺乏透明度带来风险,AI决策无法解释或质疑,在司法、金融或医疗等领域尤为严重,因为这些领域对可解释性有法律或伦理要求。

如果AI拒绝贷款、诊断疾病或决定假释,我们理应知道原因。但某些AI模型(尤其是复杂神经网络)难以提供清晰理由。

“缺乏透明度”可能破坏信任,并且“可能削弱基于AI系统结果有效质疑决策的可能性”,联合国教科文组织指出,“这可能侵犯公正审判权和有效救济权。”

换言之,如果用户和监管者都无法理解AI如何做出决策,就几乎不可能追究因错误或偏见产生的责任。

这种问责缺失是重大风险:企业可能以“算法”为借口逃避责任,受影响者无处申诉。为此,专家倡导采用可解释AI技术、严格审计和法规要求AI决策可追溯至人类权威。

全球伦理准则强调,AI系统行为应“始终可归属伦理和法律责任”于个人或组织。人类必须最终承担责任,AI应辅助而非替代敏感事务中的人类判断。否则,我们将面临由难以理解的机器做出重要决策的局面,这将导致不公。

职场中AI使用的透明度与问责缺失

权力集中与不平等

AI革命并非全球均衡发展——少数企业和国家主导先进AI的研发,这本身带来风险。

尖端AI模型需要庞大的数据、人才和计算资源,只有科技巨头(及资金充足的政府)具备。这导致了世界经济论坛所称的“高度集中的、单一的、全球一体化的供应链,偏向少数公司和国家”

这种AI权力集中可能转化为对AI技术的垄断控制,限制竞争和消费者选择。同时也带来危险,即少数公司或国家的优先事项塑造AI,忽视更广泛的公共利益

联合国指出,当AI开发集中于少数强势主体时,存在“技术可能被强加于民众而他们无权参与使用方式决定”的危险

这种不平衡可能加剧全球不平等:富裕国家和企业通过AI实现飞跃,而贫困社区缺乏最新工具,失业却无法享受AI带来的利益。此外,集中的AI产业可能抑制创新(新进入者难以与既有资源竞争)并带来安全风险(关键AI基础设施由少数实体控制,成为单点故障或操控目标)。

应对这一风险需国际合作及新规制,推动AI开发民主化——例如支持开放研究,确保公平获取数据和计算资源,制定政策(如欧盟拟议的AI法案)防止“AI守门人”滥用权力。更包容的AI生态将有助于全球共享AI红利,而非扩大技术鸿沟。

权力集中与不平等

AI的环境影响

AI风险讨论中常被忽视的是其环境足迹。AI开发,尤其是大型机器学习模型训练,消耗大量电力和计算资源。

数据中心配备成千上万耗电服务器,处理AI系统学习所需的海量数据。这意味着AI间接导致了碳排放和气候变化

联合国一份最新报告发现,四家领先AI科技公司的间接碳排放量从2020年到2023年平均飙升了150%,主要因AI数据中心的能源需求。

随着AI投资增长,运行AI模型的排放预计将急剧上升——报告预测,顶级AI系统每年可能排放超过1亿吨二氧化碳,对能源基础设施构成重大压力。

换个角度看,支持AI的数据中心电力使用增长速度是整体电力消费增长的四倍

除了碳排放,AI还大量消耗冷却用水,并因硬件快速升级产生电子废弃物。若不加控制,AI的环境影响可能破坏全球可持续发展努力。

这一风险呼吁提升AI的能效,并采用更清洁的能源。研究人员正开发绿色AI技术以降低能耗,一些公司承诺抵消AI的碳足迹。然而,AI热潮可能带来沉重的环境代价,平衡技术进步与生态责任是社会必须面对的挑战。

AI的环境影响

存在性与长期风险

除了眼前风险,一些专家警示AI可能带来的更为“推测性、长期的风险”——包括高级AI超出人类控制的可能性。尽管现有AI系统能力有限,研究者正积极研发更具通用性的通用人工智能,有望在多个领域超越人类。

这引发复杂问题:若AI变得极度智能或自主,它会否以威胁人类存在的方式行动?虽然听起来像科幻,科技界知名人士已表达对“失控AI”情景的担忧,政府也在认真对待这一议题。

2023年,英国举办全球AI安全峰会,聚焦前沿AI风险。科学界尚无统一共识——部分人认为超级智能AI尚需数十年,且可与人类价值保持一致,另一些人则认为灾难性后果虽小概率但不可忽视。

最新国际AI安全报告指出,“专家对人类失控AI导致灾难性后果的风险存在不同看法。”

本质上,AI带来的存在性风险虽遥远,却不可完全排除。这种风险可能表现为AI为实现目标而损害人类福祉(典型例子是若AI被错误编程,因缺乏常识或道德约束而大规模做出有害行为)。

尽管目前无AI具备此类自主性,AI发展速度快且难以预测,本身即为风险因素。应对长期风险需投入AI对齐研究(确保AI目标与人类价值兼容)、建立国际高风险AI研究协议(类似核武或生物武器条约),并保持人类监督,随着AI能力提升。

AI的未来充满巨大潜力,但也伴随不确定性——谨慎起见,我们应在长期规划中考虑低概率高影响的风险。

>>> 点击了解更多人工智能对个人和企业的优势

AI的存在性与长期风险


AI常被比作一台强大引擎,能推动人类进步——但若无刹车和方向盘,这台引擎可能偏离轨道。正如我们所见,使用AI的风险是多方面的:从偏见算法、假新闻、隐私侵犯和就业动荡等即时问题,到安全威胁、“黑箱”决策、大型科技垄断、环境压力,乃至失控超级智能AI的远期阴影。

这些风险并非意味着我们应停止AI发展;相反,它们凸显了负责任的AI治理和伦理实践的紧迫需求。

各国政府、国际组织、行业领袖和研究者正日益合作应对这些挑战——例如通过美国国家标准与技术研究院(NIST)的AI风险管理框架(提升AI可信度)、联合国教科文组织的全球AI伦理建议,以及欧盟的AI法案。

这些努力旨在最大化AI益处,最小化其负面影响,确保AI服务于人类,而非相反。最终,理解AI风险是管理风险的第一步。通过保持信息通畅并积极参与AI的开发与应用,我们能引导这项变革性技术朝着安全、公正、有益的方向发展。