使用人工智能的黄金法则
有效应用人工智能需要策略和谨慎。这10条黄金法则将帮助您最大化生产力,避免常见陷阱,并在日常任务中安全使用人工智能。
人工智能(AI)提供了强大的工具来提升创造力、生产力和解决问题的能力,但我们必须明智地使用它。专家强调,人工智能应尊重核心人类价值观,如人权、尊严、透明度和公平性。
为了充分利用人工智能并避免陷阱,请遵循这十条使用人工智能的黄金法则。
1. 了解人工智能的优势与局限
人工智能是一个智能助手,而非无所不知的神谕。它可以快速生成创意并节省时间,但也可能犯错或“幻觉”出错误信息。
人工智能擅长的方面
- 快速生成创意点子
- 处理大量数据
- 自动化重复性任务
- 全天候提供服务
人工智能难以胜任的方面
- 独立做出关键决策
- 像人类一样理解上下文
- 提供100%准确的信息
- 替代人类判断
对于重要决策(如健康或财务),应咨询真正的专家——人工智能可以辅助调研,但不应取代人类判断。简而言之,信任但要核实:对人工智能结果进行二次甚至三次核查。

2. 使用清晰的提示语进行沟通
把你的人工智能模型当作一个非常聪明的同事。给它清晰、详细的指令和示例。OpenAI的指南建议:“在编写提示时,尽可能具体、描述详细,明确所需的上下文、结果、长度、格式、风格等。”
不佳示例
“写一篇关于体育的文章”
过于笼统,缺乏上下文和方向
更佳示例
“写一篇简短、友好的博客文章,说明每日锻炼如何提升心情,采用对话式语气。”
具体、详细,期望明确
具体明确
准确界定需求
- 明确目标
- 详细要求
设定风格
指定语气和格式
- 对话式语气
- 专业格式
提供上下文
给出背景信息
- 目标受众
- 使用场景
良好的提示语(上下文+具体细节)能带来更好、更准确的人工智能响应。这基本上就是良好的沟通:你提供的上下文和指导越多,人工智能就能越好地帮助你。

3. 保护隐私和数据安全
在输入地址、密码、医疗信息或机密业务细节前请三思:诈骗者和黑客可能利用你在线分享的信息进行攻击。
如果你不会在社交媒体上发布某些内容,就不要把它输入给人工智能聊天机器人。
— 隐私安全最佳实践
切勿分享
- 个人地址
- 密码或凭证
- 医疗信息
- 财务细节
- 机密业务数据
安全做法
- 仅使用可信平台
- 阅读隐私政策
- 关闭训练功能
- 使用公司批准的工具
- 避免在查询中包含个人信息
许多免费或未经审核的人工智能应用可能滥用你的数据,甚至在未明确同意的情况下用其进行训练。始终使用知名、可信的平台(或公司批准的工具),并阅读其隐私政策。
在许多司法管辖区,你对自己的数据拥有权利:法律要求设计者仅收集必要数据并获得使用许可。
实际上,这意味着尽可能关闭训练或记忆功能,并避免在查询中包含个人信息。

4. 始终对人工智能输出进行复核
人工智能可能捏造事实或自信地给出错误答案。切勿照搬人工智能的内容。对于每个重要的人工智能生成内容——事实、摘要、建议——都要与可靠来源交叉核对。
比较来源
将人工智能的答案与官方数据或专家来源进行比较。
进行质量检查
通过抄袭检测或语法检查验证输出(人工智能有时会逐字模仿文本,导致版权问题)。
运用人类判断
运用自身专业知识或直觉:如果某个说法听起来难以置信,请查证。
人工智能不应剥夺“最终的人类责任”。
— 联合国教科文组织人工智能伦理指南
请记住,你对人工智能为你所做的事情负有责任。实际上,这意味着你要保持控制权:在发布或采取行动前,编辑、核实和完善人工智能的成果。

5. 关注偏见与公平性
人工智能模型从人类创造的数据中学习,因此可能继承社会偏见。这可能影响招聘决策、贷款审批,甚至日常语言使用。
规则:批判性地看待输出。如果人工智能不断为某个职位推荐同一性别或种族,或对群体进行刻板印象,请暂停并质疑它。
人工智能“应公平对待所有人”,系统不得歧视,且必须公平使用。
— 白宫人工智能权利法案 & 微软人工智能原则
多样化示例
使用多样化的示例和视角
测试场景
用不同人口群体的场景测试人工智能
解决问题
发现偏见时,调整提示语或更换工具

6. 保持人类参与(问责制)
人工智能可以自动化任务,但人类必须保持主导。联合国教科文组织建议,人工智能绝不应“取代最终的人类责任”。
实际上,这意味着设计工作流程时应安排人员审核或监督人工智能结果。
客户服务示例
数据分析示例
制定应急方案
始终准备备选方案
- 随时可进行人工干预
- 紧急关闭选项
保存记录
记录人工智能使用情况
- 使用时间
- 决策过程
启用审计
保持透明度
- 决策日志追踪
- 调查能力
问责制还意味着要保存记录:记录何时以及如何使用人工智能,以便必要时说明你的行为。
一些组织甚至要求人工智能项目可审计,具备决策日志追踪功能。这确保有人可以调查并纠正问题,符合透明度和问责制原则。

7. 遵守伦理和法律使用人工智能
始终遵守法律和道德准则。不得将人工智能用于禁止或有害的任务(例如制造恶意软件、抄袭版权内容或欺骗他人)。
禁止用途
- 制造恶意软件
- 抄袭版权内容
- 欺骗他人
- 生成有害内容
尊重知识产权
- 必要时给予署名
- 避免直接复制
- 核查版权状态
- 遵守合理使用准则
尊重知识产权:如果人工智能帮助生成图片或文章,务必在需要时给予署名,避免直接复制。
美国人工智能权利法案强调数据隐私和公平性,但也暗示必须将人工智能使用限制在伦理范围内。
许多国家正在制定人工智能法律(如欧盟的人工智能法案优先考虑安全和权利)。保持关注,避免无意中违反新规。
简而言之:做正确的事。如果请求看起来可疑或违法,很可能就是。遇到疑问时,请咨询主管或法律顾问。

8. 透明公开人工智能的使用
透明度建立信任。如果你使用人工智能生成内容(文章、报告、代码等),考虑告知受众或团队。说明人工智能如何协助(例如“此摘要由人工智能起草,随后由我编辑”)。
人们应知道何时使用人工智能系统及其对决策的影响。
— 白宫人工智能蓝图“通知与说明”原则
标注内容
清晰标识人工智能生成内容
引用来源
改编内容时给予原作者署名
分享工作流程
说明使用了哪些工具和步骤
例如,公司使用人工智能筛选求职者时,应告知候选人。
实际操作中,标注人工智能生成内容,明确数据来源。如果用人工智能改写他人作品,应注明原作者。在工作环境中,与同事分享你的人工智能工作流程(使用了哪些工具和步骤)。

9. 持续学习并保持信息更新
人工智能发展迅速,保持技能和知识的更新至关重要。关注权威新闻(技术博客、官方人工智能论坛或联合国教科文组织等国际指南),了解新风险和最佳实践。
公众教育和培训是安全使用人工智能的关键。
— 联合国教科文组织“人工智能素养”建议
以下是持续学习的方法:
正规学习
- 参加人工智能安全与伦理的在线课程或网络研讨会
- 阅读所用人工智能工具的新功能介绍
社区学习
- 与朋友或同事分享技巧和资源(如如何写更好的提示语或识别人工智能偏见)
- 教育年轻用户(或儿童)人工智能能帮忙但应保持质疑
通过共同学习,我们建立了一个明智使用人工智能的社区。毕竟,所有用户都有责任确保人工智能惠及每个人。

10. 使用可信工具并遵循指南
最后,坚持使用信誉良好的人工智能工具和官方指导。仅从官方渠道(如正规网站或应用商店)下载人工智能应用,避免恶意软件或诈骗。
在工作场所,使用符合安全和隐私标准的公司批准人工智能平台。
选择信誉供应商
支持伦理人工智能开发
- 明确的数据政策
- 伦理承诺
使用安全功能
利用内置保护措施
- 关闭数据训练
- 设置内容过滤
备份数据
保持独立性
- 独立备份
- 避免供应商锁定
支持承诺伦理开发的人工智能供应商。例如,优先选择具有明确数据政策和伦理承诺的工具(许多大型科技公司现已公开此类信息)。使用内置安全功能:部分平台允许关闭数据训练或设置内容过滤。
并始终独立备份自己的数据,避免因服务异常而无法访问。

关键要点总结
总之,人工智能是一个强大的伙伴,只要负责任地使用。遵循这十条黄金法则——尊重隐私、核实事实、保持伦理和信息更新,并保持人类控制——你就能安全地发挥人工智能的优势。
随着技术进步,这些原则将帮助确保人工智能持续成为一股积极力量。