人工智能(AI)提供了强大的工具来提升创造力、生产力和解决问题的能力,但我们必须明智地使用它。专家强调,人工智能应尊重核心人类价值观,如人权、尊严、透明度和公平性。
为了充分发挥人工智能的优势并避免陷阱,请遵循这十条使用人工智能的黄金法则

1. 了解人工智能的优势与局限

人工智能是一个智能助手,而非无所不知的神谕。它可以生成创意并节省时间,但也可能出错或“幻觉”出虚假信息。

事实上,研究显示人工智能搜索工具平均有约60%的错误率。始终将人工智能的输出视为草稿,而非最终答案。

对于重要决策(如健康或财务),应邀请真正的专家参与——人工智能可以辅助调研,但不应取代人类判断。简而言之,信任但要核实:对人工智能结果进行二次甚至三次核查。

了解人工智能的优势与局限

2. 使用清晰的提示语进行沟通

把你的人工智能模型当作一位非常聪明的同事。给它清晰、详细的指令和示例。OpenAI的指南建议:“在编写提示时,尽可能具体、描述详尽,涵盖所需的上下文、结果、长度、格式、风格等。”

避免模糊的请求(如“写一篇关于体育的文章”),尝试:“写一篇简短、友好的博客文章,说明每日锻炼如何提升心情,语气轻松对话式。”好的提示(上下文+细节)能带来更准确的人工智能回应。

这基本上就是良好的沟通:你提供的上下文和指导越多,人工智能就能越好地帮助你。

使用清晰的提示语进行沟通

3. 保护隐私和数据安全

除非完全确定安全,否则绝不要与人工智能工具分享敏感的个人或公司数据。输入地址、密码、医疗信息或机密商业细节前请三思:诈骗者和黑客可能利用你在线分享的信息。

例如,如果你不会在社交媒体上发布某些内容,也不要将其输入人工智能聊天机器人。

许多免费或未经审查的人工智能应用可能滥用你的数据,甚至在未明确同意的情况下用数据进行训练。始终使用知名、可信的平台(或公司批准的工具),并仔细阅读其隐私政策。

在许多司法管辖区,你对自己的数据拥有权利:法律要求设计者仅收集必要数据并获得使用许可。

实际操作中,这意味着尽可能关闭训练或记忆功能,避免在查询中包含个人信息。

保护隐私和数据安全

4. 始终对人工智能输出进行复核

人工智能可能编造事实或自信地给出错误答案。切勿照搬人工智能的内容。对于每个重要的人工智能生成内容——事实、摘要、建议——都要与可靠来源交叉核对。
一个简单的事实核查流程可能包括:

  • 将人工智能的答案与官方数据或专家来源进行比较。
  • 通过抄袭检测或语法检查工具检测输出(人工智能有时会逐字复制文本,可能引发版权问题)。
  • 运用自身专业知识或直觉:如果某个说法听起来难以置信,请查证。

请记住,你对人工智能为你所做的事情负有责任。联合国教科文组织的人工智能伦理指南强调人类监督:人工智能不应剥夺“最终的人类责任”。

实际上,这意味着始终掌控全局:在发布或采取行动前,编辑、核实并完善人工智能的成果。

始终对人工智能输出进行复核

5. 关注偏见与公平性

人工智能模型从人类创造的数据中学习,因此可能继承社会偏见。这可能影响招聘决策、贷款审批,甚至日常语言使用。

规则是:批判性地看待输出。如果人工智能反复为某个职位推荐同一性别或种族,或对群体进行刻板印象,请暂停并质疑其结果。

白宫的人工智能权利法案明确指出,系统不得歧视,必须公平使用。科技领导者(如微软)也将公平视为核心原则:人工智能“应公平对待所有人”。

遵守此规则的方法是:使用多样化的示例和视角测试人工智能。用不同人口群体的场景检验结果是否存在不公平变化。

如果发现偏见,调整提示或更换工具。尽可能选择促进包容性、解决偏见的人工智能系统(许多系统内置公平性检查和偏见审计功能)。

关注人工智能中的偏见与公平性

6. 保持人类参与(责任制)

人工智能可以自动化任务,但人类必须保持主导。联合国教科文组织建议,人工智能绝不应“取代最终的人类责任”。

实际操作中,这意味着设计工作流程时应有人审核或监督人工智能结果。

例如,若使用人工智能聊天机器人进行客户服务,应培训员工监控对话,出现问题时及时接手。若用人工智能筛选垃圾邮件或分析数据,应复核过滤器是否正常工作,并根据需要调整。

始终预设“安全保障”或备用方案:当人工智能提出异常建议或无法理解时,人类操作员可以介入或关闭系统。

责任制还意味着保留记录:记录何时、如何使用人工智能,以便必要时说明操作过程。

一些组织甚至要求人工智能项目可审计,保留决策追踪日志。这确保有人能调查并纠正问题,符合透明度和责任制原则。

保持人类参与(责任制)

7. 合乎伦理和法律地使用人工智能

能向人工智能提问并不意味着就应该提问。始终遵守法律和道德准则。不要将人工智能用于禁止或有害的任务(例如制造恶意软件、抄袭版权文本或欺骗他人)。

尊重知识产权:如果人工智能帮助生成图像或文章,必要时要注明出处,避免直接复制。

美国人工智能权利法案强调数据隐私和公平性,同时暗示必须将人工智能使用限制在伦理范围内。

例如,在使用人工智能处理敏感工作前,检查合规要求:医疗和金融领域通常有额外规定(如HIPAA、GDPR等)。许多国家正在制定人工智能法律(如欧盟的人工智能法案优先考虑安全和权利)。保持关注,避免无意中违反新规。

简而言之:做正确的事。如果请求看起来可疑或违法,很可能就是。遇到疑问时,请咨询主管或法律顾问。

合乎伦理和法律地使用人工智能

8. 透明公开人工智能的使用

透明度建立信任。如果你使用人工智能生成内容(文章、报告、代码等),考虑告知受众或团队。说明人工智能的辅助方式(例如“此摘要由人工智能起草,随后由我编辑”)。

白宫蓝图中甚至包含“通知与解释”原则:人们应知晓人工智能系统的使用及其对决策的影响。

例如,公司使用人工智能筛选求职者时,应告知候选人。

实际操作中,标注人工智能生成内容,明确数据来源。如果用人工智能改写他人作品,应注明原作者。在工作环境中,与同事分享你的人工智能工作流程(使用了哪些工具,采取了哪些步骤)。

这种开放不仅符合伦理标准,还帮助他人学习并及早发现问题。记住,责任制意味着对你的成果负责,并给予应有的认可。

透明公开人工智能的使用

9. 持续学习,保持信息更新

人工智能发展迅速,请保持技能和知识的更新。关注权威新闻(技术博客、官方人工智能论坛或联合国教科文组织等国际指南),了解新风险和最佳实践。联合国教科文组织强调“人工智能素养”:公众教育和培训是安全使用人工智能的关键。

以下是持续学习的建议:

  • 参加关于人工智能安全与伦理的在线课程或网络研讨会。
  • 了解你所用人工智能工具的新功能。
  • 与朋友或同事分享技巧和资源(如如何写出更好的提示语或识别人工智能偏见)。
  • 教育年轻用户(或孩子)人工智能虽有帮助,但应保持质疑精神。

通过共同学习,我们建立一个明智使用人工智能的社区。毕竟,所有用户都有责任确保人工智能惠及每个人

持续学习,保持信息更新

10. 使用可信工具并遵循指南

最后,坚持使用信誉良好的人工智能工具和官方指导。仅从官方渠道(如正规网站或应用商店)下载人工智能应用,避免恶意软件或诈骗。

在工作场所,使用符合安全和隐私标准的公司批准平台。

支持承诺伦理开发的人工智能供应商。例如,优先选择拥有明确数据政策和伦理承诺的工具(许多大型科技公司现已公开此类信息)。利用内置安全功能:部分平台允许关闭数据训练或设置内容过滤。

并且始终独立备份你的数据,避免因人工智能服务故障而无法访问。

>>> 你可能需要初学者高效使用人工智能的技巧

使用可信的人工智能工具并遵循指南


总之,人工智能是一个强大的伙伴,只要负责任地使用。遵循这十条黄金法则——尊重隐私、核实事实、保持伦理和信息更新、并确保人类掌控——你就能安全地发挥人工智能的优势。
随着技术进步,这些原则将帮助确保人工智能持续成为推动社会进步的正面力量。