خطرات استفاده از هوش مصنوعی
هوش مصنوعی (AI) مزایای زیادی به همراه دارد اما در صورت سوءاستفاده یا استفاده بدون کنترل، خطرات فراوانی نیز ایجاد میکند. از مسائل امنیت دادهها، تحریف اطلاعات، نقض حق نشر تا خطر جایگزینی نیروی کار، هوش مصنوعی چالشهایی را به وجود میآورد که باید بهدرستی شناسایی و مدیریت شوند. درک خطرات استفاده از هوش مصنوعی به افراد و کسبوکارها کمک میکند تا این فناوری را بهصورت ایمن و پایدار به کار گیرند.
هوش مصنوعی (AI) اکنون در همهچیز از دستیارهای گوشیهای هوشمند و فیدهای شبکههای اجتماعی گرفته تا حوزههای بهداشت و درمان و حملونقل نفوذ کرده است. این فناوریها مزایای بیسابقهای به همراه دارند، اما همچنین با خطرات و چالشهای قابل توجهی همراه هستند.
در این مقاله، با INVIAI خطرات استفاده از هوش مصنوعی را در تمامی حوزهها و انواع هوش مصنوعی – از چتباتها و الگوریتمها تا رباتها – بر اساس دیدگاههای منابع رسمی و بینالمللی بررسی میکنیم.
- 1. تعصب و تبعیض در سیستمهای هوش مصنوعی
- 2. خطرات اطلاعات نادرست و دیپفیک
- 3. تهدیدات حریم خصوصی و نظارت گسترده
- 4. شکستهای ایمنی و آسیبهای ناخواسته
- 5. جابجایی شغلی و اختلال اقتصادی
- 6. سوءاستفادههای جنایی، کلاهبرداری و تهدیدات امنیتی
- 7. نظامیسازی و سلاحهای خودمختار
- 8. فقدان شفافیت و پاسخگویی
- 9. تمرکز قدرت و نابرابری
- 10. تأثیرات زیستمحیطی هوش مصنوعی
- 11. خطرات وجودی و بلندمدت
- 12. هدایت مسئولانه آینده هوش مصنوعی
تعصب و تبعیض در سیستمهای هوش مصنوعی
یکی از خطرات عمده هوش مصنوعی، تثبیت تعصب و تبعیض ناعادلانه است. مدلهای هوش مصنوعی از دادههایی یاد میگیرند که ممکن است بازتابدهنده پیشداوریها یا نابرابریهای تاریخی باشند؛ در نتیجه، یک سیستم هوش مصنوعی میتواند افراد را بر اساس نژاد، جنسیت یا ویژگیهای دیگر به گونهای متفاوت و ناعادلانه رفتار کند که بیعدالتی را تداوم میبخشد.
هوش مصنوعی عمومی معیوب میتواند از طریق تصمیمات مغرضانه نسبت به ویژگیهای محافظتشده مانند نژاد، جنسیت، فرهنگ، سن و ناتوانی آسیب برساند.
— گزارش ایمنی هوش مصنوعی بینالمللی
نهادهای جهانی مانند یونسکو هشدار میدهند که بدون اقدامات عدالتمحور، هوش مصنوعی خطر «بازتولید تعصبات و تبعیضهای دنیای واقعی، دامن زدن به تفرقهها و تهدید حقوق و آزادیهای بنیادین بشر» را دارد. اطمینان از آموزش سیستمهای هوش مصنوعی با دادههای متنوع و نماینده و بررسی آنها برای تعصب، برای جلوگیری از تبعیض خودکار ضروری است.
تعصب در استخدام
ابزارهای استخدام هوش مصنوعی ممکن است علیه برخی گروههای جمعیتی تبعیض قائل شوند
تبعیض در اعطای وام
الگوریتمهای مالی ممکن است به ناحق وامها را بر اساس ویژگیهای محافظتشده رد کنند
نابرابری در پلیسداری
پلیسداری پیشبینیکننده ممکن است تعصبات موجود در اجرای قانون را تقویت کند

خطرات اطلاعات نادرست و دیپفیک
توانایی هوش مصنوعی در تولید متن، تصویر و ویدئوهای بسیار واقعی، نگرانیهایی درباره سیل اطلاعات نادرست ایجاد کرده است. هوش مصنوعی مولد میتواند مقالات خبری جعلی، تصاویر ساختگی یا ویدئوهای دیپفیک تولید کند که تشخیص آنها از واقعیت دشوار است.
در واقع، اطلاعات نادرست و گمراهکنندهای که توسط هوش مصنوعی تقویت میشود، یکی از «بزرگترین چالشهای تاریخ دموکراسی» است – بهویژه با میلیاردها نفری که در انتخابات آینده رأی خواهند داد. رسانههای مصنوعی مانند ویدئوهای دیپفیک و صداهای کلونشده هوش مصنوعی میتوانند برای پخش تبلیغات، جعل شخصیتهای عمومی یا ارتکاب کلاهبرداری به کار روند.
ویدئوهای دیپفیک
کلونسازی صدا
مقامات هشدار میدهند که افراد مخرب میتوانند از هوش مصنوعی برای کمپینهای گسترده اطلاعات نادرست استفاده کنند و بهراحتی شبکههای اجتماعی را با محتوای جعلی پر کنند و آشوب ایجاد نمایند. خطر ایجاد محیط اطلاعاتی بدبینانه است که شهروندان نتوانند به آنچه میبینند یا میشنوند اعتماد کنند و این امر گفتوگوی عمومی و دموکراسی را تضعیف میکند.

تهدیدات حریم خصوصی و نظارت گسترده
استفاده گسترده از هوش مصنوعی نگرانیهای جدی درباره حریم خصوصی ایجاد میکند. سیستمهای هوش مصنوعی اغلب به حجم عظیمی از دادههای شخصی – از چهرهها و صداها تا عادات خرید و موقعیت مکانی – نیاز دارند تا بهخوبی عمل کنند. بدون محافظتهای قوی، این دادهها میتوانند سوءاستفاده یا بهرهبرداری شوند.
برای مثال، تشخیص چهره و الگوریتمهای پیشبینی میتوانند نظارت فراگیر را ممکن سازند، بهطوری که هر حرکت افراد را ردیابی کرده یا رفتارشان را بدون رضایت ارزیابی کنند.
تشخیص چهره
ردیابی مداوم افراد در فضاهای عمومی
- ردیابی هویت
- تحلیل رفتاری
تحلیل پیشبینی
تحلیل هوش مصنوعی که جزئیات شخصی صمیمانه را آشکار میکند
- وضعیت سلامت
- باورها و گرایشهای سیاسی
امتیازدهی اجتماعی
ارزیابی شهروندان بر اساس الگوهای رفتاری
- امتیاز اعتباری
- انطباق اجتماعی
حریم خصوصی حقی است اساسی برای حفاظت از کرامت، خودمختاری و اختیار انسان که باید در طول چرخه عمر سیستمهای هوش مصنوعی رعایت شود.
— سازمانهای حفاظت از دادهها
اگر توسعه هوش مصنوعی از مقررات حریم خصوصی پیشی بگیرد، افراد ممکن است کنترل اطلاعات خود را از دست بدهند. جامعه باید اطمینان حاصل کند که حاکمیت دادهها، مکانیزمهای رضایت و تکنیکهای حفظ حریم خصوصی بهخوبی اجرا شوند تا فناوریهای هوش مصنوعی به ابزارهای نظارت بیحد و حصر تبدیل نشوند.

شکستهای ایمنی و آسیبهای ناخواسته
در حالی که هوش مصنوعی میتواند تصمیمات و وظایف فیزیکی را با کارایی فوقالعاده خودکار کند، ممکن است بهصورت غیرقابل پیشبینی شکست بخورد و به آسیبهای واقعی منجر شود. ما مسئولیتهای حیاتی بیشتری را به هوش مصنوعی میسپاریم – مانند رانندگی خودروها، تشخیص بیماران یا مدیریت شبکههای برق – اما این سیستمها بینقص نیستند.
خطاها، دادههای آموزشی ناقص یا شرایط پیشبینینشده میتوانند باعث شوند هوش مصنوعی اشتباهات خطرناکی مرتکب شود. هوش مصنوعی خودروهای خودران ممکن است عابر پیاده را اشتباه تشخیص دهد یا هوش مصنوعی پزشکی درمان نادرستی پیشنهاد کند که پیامدهای مرگباری داشته باشد.
وسایل نقلیه خودران
هوش مصنوعی پزشکی
مدیریت شبکه برق
آسیبهای ناخواسته (ریسکهای ایمنی) و همچنین آسیبپذیری در برابر حملات (ریسکهای امنیتی) باید در طول چرخه عمر سیستمهای هوش مصنوعی اجتناب و رسیدگی شوند تا ایمنی و امنیت انسان، محیط زیست و اکوسیستم تضمین شود.
— دستورالعملهای بینالمللی هوش مصنوعی
به عبارت دیگر، سیستمهای هوش مصنوعی باید بهطور دقیق آزمایش، نظارت و با مکانیزمهای ایمنی ساخته شوند تا احتمال خطا به حداقل برسد. اعتماد بیش از حد به هوش مصنوعی نیز خطرناک است – اگر انسانها کورکورانه به تصمیمات خودکار اعتماد کنند، ممکن است هنگام بروز مشکل به موقع مداخله نکنند.
بنابراین، حفظ نظارت انسانی حیاتی است. در کاربردهای حساس (مانند بهداشت و درمان یا حملونقل)، تصمیمات نهایی باید تحت قضاوت انسان باقی بمانند. حفظ ایمنی و قابلیت اطمینان در هوش مصنوعی چالشی مستمر است که نیازمند طراحی دقیق و فرهنگ مسئولیتپذیری از سوی توسعهدهندگان هوش مصنوعی است.

جابجایی شغلی و اختلال اقتصادی
تأثیر تحولآفرین هوش مصنوعی بر اقتصاد دو لبه است. از یک سو، هوش مصنوعی میتواند بهرهوری را افزایش داده و صنایع کاملاً جدیدی ایجاد کند؛ از سوی دیگر، خطر جابجایی میلیونها کارگر از طریق اتوماسیون را به همراه دارد.
بسیاری از مشاغل – بهویژه آنهایی که شامل وظایف تکراری، روتین یا دادههای قابل تحلیل آسان هستند – در معرض تصاحب توسط الگوریتمها و رباتهای هوش مصنوعی قرار دارند.
مشاغل سنتی
- وظایف روتین و تکراری
- نقشهای تحلیل داده
- مشاغل کارگری دستی
- خدمات مشتری پایه
مهارتهای جدید مورد نیاز
- مهارتهای همکاری با هوش مصنوعی
- حل خلاقانه مسائل
- مدیریت فنی هوش مصنوعی
- خدمات انسانمحور
اگرچه اقتصاد ممکن است نقشهای جدیدی ایجاد کند (که احتمالاً در بلندمدت حتی بیشتر از مشاغل از دست رفته است)، گذار برای بسیاری دردناک خواهد بود. مشاغل جدید اغلب نیازمند مهارتهای متفاوت و پیشرفتهتر هستند یا در مراکز فناوری خاصی متمرکزند، به این معنی که بسیاری از کارگران جابجا شده ممکن است در یافتن جایگاه جدید دچار مشکل شوند.
این عدم تطابق بین مهارتهای کارگران و مهارتهای مورد نیاز نقشهای جدید مبتنی بر هوش مصنوعی میتواند منجر به افزایش بیکاری و نابرابری شود اگر به آن پرداخته نشود. در واقع، سیاستگذاران و پژوهشگران هشدار میدهند که پیشرفت سریع هوش مصنوعی میتواند «اختلال در بازار کار و نابرابریهای قدرت اقتصادی» را بهصورت سیستماتیک به همراه داشته باشد.
تأثیر جنسیتی
نسبت بالاتری از مشاغل زنان در معرض خطر اتوماسیون قرار دارد
کشورهای در حال توسعه
کارگران در کشورهای در حال توسعه با خطرات بالاتر اتوماسیون مواجهاند
بدون اقدامات پیشگیرانه (مانند برنامههای بازآموزی، آموزش مهارتهای هوش مصنوعی و شبکههای ایمنی اجتماعی)، هوش مصنوعی میتواند شکافهای اجتماعی-اقتصادی را گسترش دهد و اقتصادی مبتنی بر هوش مصنوعی ایجاد کند که در آن صاحبان فناوری بیشترین منافع را میبرند.
آمادهسازی نیروی کار برای تأثیر هوش مصنوعی حیاتی است تا اطمینان حاصل شود که مزایای اتوماسیون بهطور گسترده تقسیم میشود و از ناآرامیهای اجتماعی ناشی از از دست دادن گسترده شغل جلوگیری شود.

سوءاستفادههای جنایی، کلاهبرداری و تهدیدات امنیتی
هوش مصنوعی ابزاری قدرتمند است که میتواند به همان اندازه برای اهداف ناپسند به کار رود که برای اهداف نیکو. جرمکاران سایبری و دیگر افراد مخرب در حال حاضر از هوش مصنوعی برای تقویت حملات خود بهره میبرند.
برای مثال، هوش مصنوعی میتواند ایمیلها یا پیامهای صوتی فیشینگ بسیار شخصیسازیشده (با کلونسازی صدای فرد) تولید کند تا افراد را فریب دهد اطلاعات حساس یا پول ارسال کنند. همچنین میتواند برای خودکارسازی هک با یافتن آسیبپذیریهای نرمافزاری در مقیاس وسیع یا توسعه بدافزارهای تطبیقپذیر برای فرار از شناسایی استفاده شود.
فیشینگ مبتنی بر هوش مصنوعی
هک خودکار
بدافزار تطبیقپذیر
افراد مخرب میتوانند از هوش مصنوعی برای عملیاتهای گسترده اطلاعات نادرست، تأثیرگذاری، کلاهبرداری و تقلب استفاده کنند.
— گزارش سفارششده توسط دولت بریتانیا
مرکز ایمنی هوش مصنوعی سوءاستفاده مخرب از هوش مصنوعی را یک نگرانی کلیدی میداند و به سناریوهایی مانند استفاده مجرمان از سیستمهای هوش مصنوعی برای انجام کلاهبرداریها و حملات سایبری گسترده اشاره میکند.
سرعت، مقیاس و پیچیدگی که هوش مصنوعی فراهم میکند میتواند دفاعهای سنتی را تحت فشار قرار دهد – تصور کنید هزاران تماس کلاهبرداری تولید شده توسط هوش مصنوعی یا ویدئوهای دیپفیک که در یک روز امنیت یک شرکت را هدف قرار میدهند.
با دسترسی بیشتر به ابزارهای هوش مصنوعی، موانع انجام این فعالیتهای مخرب کاهش یافته و احتمال افزایش جرمهای تقویتشده با هوش مصنوعی وجود دارد.
این امر نیازمند رویکردهای جدید در امنیت سایبری و اجرای قانون است، مانند سیستمهای هوش مصنوعی که میتوانند دیپفیکها یا رفتارهای غیرعادی را شناسایی کنند و چارچوبهای قانونی بهروزشده برای پاسخگو کردن مجرمان. بهطور خلاصه، باید پیشبینی کنیم هر قابلیتی که هوش مصنوعی به نفعان میدهد، ممکن است به همان اندازه به مجرمان نیز داده شود – و برای آن آماده باشیم.

نظامیسازی و سلاحهای خودمختار
شاید ترسناکترین خطر هوش مصنوعی در زمینه جنگ و امنیت ملی ظهور میکند. هوش مصنوعی به سرعت در سیستمهای نظامی ادغام میشود و چشمانداز سلاحهای خودمختار («رباتهای قاتل») و تصمیمگیری مبتنی بر هوش مصنوعی در نبرد را به وجود میآورد.
این فناوریها میتوانند سریعتر از هر انسان واکنش نشان دهند، اما حذف کنترل انسانی از استفاده از نیروی کشنده پرخطر است. خطر این وجود دارد که سلاح کنترلشده توسط هوش مصنوعی هدف اشتباهی را انتخاب کند یا درگیریها را بهصورت غیرمنتظره تشدید نماید.
خطاهای انتخاب هدف
سلاحهای هوش مصنوعی ممکن است غیرنظامیان را بهاشتباه بهعنوان مبارز شناسایی کنند
- شناسایی مثبت کاذب
- تلفات غیرنظامیان
تشدید درگیری
سیستمهای خودمختار ممکن است وضعیت را فراتر از قصد انسانی تشدید کنند
- چرخههای پاسخ سریع
- تشدید کنترلنشده
اگر کشورها برای تجهیز زرادخانههای خود به سلاحهای هوشمند رقابت کنند، ممکن است مسابقه تسلیحاتی بیثباتکنندهای آغاز شود. علاوه بر این، هوش مصنوعی میتواند در جنگ سایبری برای حمله خودکار به زیرساختهای حیاتی یا پخش تبلیغات استفاده شود و مرز بین صلح و درگیری را مبهم کند.
توسعه هوش مصنوعی در جنگ، اگر در دست عدهای محدود متمرکز شود، ممکن است بدون نظر مردم بر آنها تحمیل شود و امنیت و اخلاق جهانی را تضعیف کند.
— سازمان ملل متحد
سیستمهای سلاح خودمختار همچنین معضلات حقوقی و اخلاقی ایجاد میکنند – اگر پهپاد هوش مصنوعی به اشتباه غیرنظامیان را بکشد، چه کسی مسئول است؟ چنین سیستمهایی چگونه با قوانین بینالمللی بشردوستانه سازگارند؟
این پرسشهای بیپاسخ منجر به درخواستهایی برای ممنوعیت یا تنظیم دقیق برخی سلاحهای مجهز به هوش مصنوعی شده است. اطمینان از نظارت انسانی بر هر هوش مصنوعی که میتواند تصمیمات حیاتی بگیرد، بهطور گستردهای ضروری تلقی میشود. بدون آن، خطر نه تنها اشتباهات فاجعهبار در میدان جنگ بلکه فرسایش مسئولیت انسانی در جنگ است.

فقدان شفافیت و پاسخگویی
اکثر سیستمهای پیشرفته هوش مصنوعی امروز بهصورت «جعبه سیاه» عمل میکنند – منطق داخلی آنها حتی برای سازندگانشان اغلب مبهم است. این فقدان شفافیت خطر ایجاد میکند که تصمیمات هوش مصنوعی قابل توضیح یا به چالش کشیدن نباشند، که در حوزههایی مانند عدالت، مالی یا بهداشت و درمان که توضیحپذیری میتواند الزام قانونی یا اخلاقی باشد، مشکل جدی است.
اگر هوش مصنوعی به کسی وام ندهد، بیماری را تشخیص دهد یا تصمیم بگیرد چه کسی از زندان آزاد شود، طبیعی است که بخواهیم بدانیم چرا. با برخی مدلهای هوش مصنوعی (بهویژه شبکههای عصبی پیچیده)، ارائه دلیل واضح دشوار است.
تصمیمات حقوقی
خدمات مالی
بهداشت و درمان
فقدان شفافیت میتواند امکان به چالش کشیدن مؤثر تصمیمات مبتنی بر نتایج تولید شده توسط سیستمهای هوش مصنوعی را تضعیف کند و ممکن است حق به دادرسی عادلانه و جبران مؤثر را نقض نماید.
— یونسکو
به عبارت دیگر، اگر نه کاربران و نه ناظران نتوانند بفهمند هوش مصنوعی چگونه تصمیم میگیرد، تقریباً غیرممکن است کسی را برای اشتباهات یا تعصبات به وجود آمده پاسخگو دانست.
برای مقابله با این موضوع، کارشناسان از تکنیکهای هوش مصنوعی قابل توضیح، ممیزی دقیق و الزامات قانونی که تصمیمات هوش مصنوعی به مرجع انسانی قابل ردیابی باشند، حمایت میکنند.
در واقع، دستورالعملهای اخلاقی جهانی تأکید دارند که باید «همیشه امکان نسبت دادن مسئولیت اخلاقی و قانونی» رفتار سیستمهای هوش مصنوعی به یک شخص یا سازمان وجود داشته باشد. انسانها باید در نهایت پاسخگو باقی بمانند و هوش مصنوعی باید در امور حساس به جای جایگزینی، به قضاوت انسانی کمک کند. در غیر این صورت، خطر ایجاد دنیایی است که تصمیمات مهم توسط ماشینهای غیرقابل فهم گرفته میشوند که زمینهساز بیعدالتی است.

تمرکز قدرت و نابرابری
انقلاب هوش مصنوعی بهطور یکنواخت در سراسر جهان رخ نمیدهد – تعداد کمی از شرکتها و کشورها توسعه هوش مصنوعی پیشرفته را در دست دارند که خود خطراتی به همراه دارد.
مدلهای پیشرفته هوش مصنوعی به دادهها، استعداد و منابع محاسباتی عظیمی نیاز دارند که تنها غولهای فناوری (و دولتهای دارای بودجه کافی) در حال حاضر در اختیار دارند.
این امر منجر به زنجیره تأمین جهانی بسیار متمرکز و یکپارچه شده است که به نفع چند شرکت و کشور است.
— مجمع جهانی اقتصاد
انحصار دادهها
مجموعه دادههای عظیم تحت کنترل تعداد کمی از نهادها
منابع محاسباتی
زیرساختهای گرانقیمت که تنها در دسترس غولهای فناوری است
تمرکز استعدادها
محققان برتر هوش مصنوعی در چند سازمان متمرکز شدهاند
چنین تمرکز قدرت هوش مصنوعی میتواند به کنترل انحصاری بر فناوریهای هوش مصنوعی منجر شود، رقابت و انتخاب مصرفکننده را محدود کند. همچنین خطر این وجود دارد که اولویتهای آن چند شرکت یا کشور به گونهای شکل گیرد که منافع عمومی گستردهتر را در نظر نگیرد.
این عدم تعادل میتواند نابرابریهای جهانی را تشدید کند: کشورهای ثروتمند و شرکتها با بهرهگیری از هوش مصنوعی پیشرفت میکنند، در حالی که جوامع فقیرتر به ابزارهای جدید دسترسی ندارند و از دست دادن شغل را تجربه میکنند بدون اینکه از مزایای هوش مصنوعی بهرهمند شوند.
علاوه بر این، صنعت متمرکز هوش مصنوعی ممکن است نوآوری را خفه کند (اگر تازهواردان نتوانند با منابع شرکتهای بزرگ رقابت کنند) و خطرات امنیتی ایجاد نماید (اگر زیرساختهای حیاتی هوش مصنوعی در کنترل چند نهاد باشد، نقطه شکست یا دستکاری واحدی ایجاد میشود).
پرداختن به این خطر نیازمند همکاری بینالمللی و احتمالاً مقررات جدید برای دموکراتیزه کردن توسعه هوش مصنوعی است – برای مثال، حمایت از تحقیقات باز، تضمین دسترسی عادلانه به دادهها و محاسبات، و تدوین سیاستهایی مانند قانون پیشنهادی هوش مصنوعی اتحادیه اروپا برای جلوگیری از سوءاستفاده توسط «نگهبانان هوش مصنوعی». چشمانداز هوش مصنوعی فراگیرتر به تضمین توزیع جهانی منافع هوش مصنوعی کمک میکند، نه افزایش شکاف بین دارندگان و ندارندگان فناوری.

تأثیرات زیستمحیطی هوش مصنوعی
اغلب در بحثهای مربوط به خطرات هوش مصنوعی، ردپای زیستمحیطی آن نادیده گرفته میشود. توسعه هوش مصنوعی، بهویژه آموزش مدلهای بزرگ یادگیری ماشین، مصرف برق و قدرت محاسباتی بسیار زیادی دارد.
مرکز دادههایی که مملو از هزاران سرور پرمصرف هستند برای پردازش حجم عظیم دادههایی که سیستمهای هوش مصنوعی از آنها یاد میگیرند، لازم است. این بدان معناست که هوش مصنوعی میتواند بهطور غیرمستقیم به انتشار کربن و تغییرات اقلیمی کمک کند.
با افزایش سرمایهگذاری در هوش مصنوعی، انتظار میرود انتشار گازهای گلخانهای ناشی از اجرای مدلهای هوش مصنوعی به شدت افزایش یابد – گزارش پیشبینی کرده است که برترین سیستمهای هوش مصنوعی میتوانند سالانه بیش از ۱۰۰ میلیون تن دیاکسید کربن منتشر کنند که فشار زیادی بر زیرساختهای انرژی وارد میکند.
برای درک بهتر، مراکز دادهای که هوش مصنوعی را تغذیه میکنند، مصرف برق را «چهار برابر سریعتر از افزایش کلی مصرف برق» افزایش میدهند.
مصرف انرژی
مصرف آب
پسماند الکترونیکی
علاوه بر انتشار کربن، هوش مصنوعی میتواند آب زیادی برای خنکسازی مصرف کند و با ارتقاء سریع سختافزار، پسماند الکترونیکی تولید نماید. اگر کنترل نشود، تأثیرات زیستمحیطی هوش مصنوعی میتواند تلاشهای جهانی برای پایداری را تضعیف کند.
این خطر نیازمند ساخت هوش مصنوعی بهرهورتر در مصرف انرژی و استفاده از منابع انرژی پاکتر است. پژوهشگران در حال توسعه تکنیکهای هوش مصنوعی سبز برای کاهش مصرف انرژی هستند و برخی شرکتها متعهد شدهاند هزینههای کربنی هوش مصنوعی را جبران کنند. با این حال، این موضوع همچنان یک نگرانی فوری است که شتاب به سوی هوش مصنوعی میتواند هزینه زیستمحیطی سنگینی داشته باشد. تعادل بین پیشرفت فناوری و مسئولیت زیستمحیطی چالشی است که جامعه باید هنگام ادغام هوش مصنوعی در همه جا مدیریت کند.

خطرات وجودی و بلندمدت
فراتر از خطرات فوری، برخی کارشناسان درباره خطرات فرضی و بلندمدت هوش مصنوعی هشدار میدهند – از جمله احتمال ظهور هوش مصنوعی پیشرفتهای که از کنترل انسان خارج شود. در حالی که سیستمهای هوش مصنوعی امروز در قابلیتهای خود محدود هستند، پژوهشگران فعالانه در حال کار روی هوش مصنوعی عمومیتر هستند که ممکن است در بسیاری از حوزهها از انسانها پیشی بگیرد.
این موضوع سوالات پیچیدهای مطرح میکند: اگر هوش مصنوعی بسیار هوشمندتر یا خودمختارتر شود، آیا ممکن است به گونهای عمل کند که بقای بشریت را تهدید کند؟ اگرچه این موضوع شبیه داستانهای علمی-تخیلی است، چهرههای برجسته در جامعه فناوری نگرانی خود را درباره سناریوهای «هوش مصنوعی سرکش» ابراز کردهاند و دولتها این بحث را جدی گرفتهاند.
کارشناسان دیدگاههای متفاوتی درباره خطر از دست دادن کنترل انسان بر هوش مصنوعی به گونهای که منجر به پیامدهای فاجعهبار شود، دارند.
— گزارش ایمنی هوش مصنوعی بینالمللی
اجماع علمی یکسان نیست – برخی معتقدند هوش مصنوعی فوقالعاده هوشمند دههها فاصله دارد یا میتوان آن را با ارزشهای انسانی همسو نگه داشت، در حالی که برخی دیگر احتمال کمی اما غیرصفر برای پیامدهای فاجعهبار میبینند.
سناریوهای بالقوه خطر وجودی
- هوش مصنوعی دنبال کردن اهداف ناسازگار با ارزشهای انسانی
- پیشرفت سریع و کنترلنشده قابلیتهای هوش مصنوعی
- از دست دادن اختیار انسانی در تصمیمگیریهای حیاتی
- سیستمهای هوش مصنوعی بهینهسازی برای اهداف مضر
اقدامات ایمنی بلندمدت
- پژوهش همسویی هوش مصنوعی برای تضمین اهداف سازگار
- توافقات بینالمللی درباره پژوهشهای حساس هوش مصنوعی
- حفظ نظارت انسانی با افزایش توانایی هوش مصنوعی
- ایجاد چارچوبهای حاکمیتی جهانی برای هوش مصنوعی
به طور خلاصه، پذیرفته شده است که خطر وجودی هوش مصنوعی، هرچند دور، نمیتواند کاملاً نادیده گرفته شود. چنین نتیجهای ممکن است شامل هوش مصنوعیای باشد که اهداف خود را به زیان رفاه انسان دنبال میکند (مثال کلاسیک هوش مصنوعیای که اگر نادرست برنامهریزی شود، تصمیم میگیرد کاری مضر در مقیاس بزرگ انجام دهد زیرا فاقد عقل سلیم یا محدودیتهای اخلاقی است).
در حالی که هیچ هوش مصنوعی امروز به چنین سطحی از اختیار نرسیده است، سرعت پیشرفت هوش مصنوعی سریع و غیرقابل پیشبینی است که خود یک عامل خطر است.
آمادهسازی برای خطرات بلندمدت به معنای سرمایهگذاری در پژوهش همسویی هوش مصنوعی (اطمینان از سازگاری اهداف هوش مصنوعی با ارزشهای انسانی)، ایجاد توافقات بینالمللی درباره پژوهشهای حساس هوش مصنوعی (مانند معاهدات تسلیحات هستهای یا بیولوژیکی) و حفظ نظارت انسانی با افزایش توانایی سیستمهای هوش مصنوعی است.
آینده هوش مصنوعی وعدههای عظیمی دارد، اما همچنین عدم قطعیت – و خردمندی حکم میکند که حتی خطرات کماحتمال و با تأثیر بالا را در برنامهریزی بلندمدت خود در نظر بگیریم.

هدایت مسئولانه آینده هوش مصنوعی
هوش مصنوعی اغلب به یک موتور قدرتمند تشبیه میشود که میتواند بشریت را به جلو براند – اما بدون ترمز و فرمان، آن موتور میتواند از مسیر منحرف شود. همانطور که دیدیم، خطرات استفاده از هوش مصنوعی چندوجهی است: از مسائل فوری مانند الگوریتمهای مغرضانه، اخبار جعلی، تجاوز به حریم خصوصی و ناآرامیهای شغلی گرفته تا چالشهای گستردهتر اجتماعی مانند تهدیدات امنیتی، تصمیمگیری «جعبه سیاه»، انحصارهای فناوری بزرگ، فشارهای زیستمحیطی و حتی سایه دوردست از دست دادن کنترل به هوش مصنوعی فوقالعاده هوشمند.
دولتها، سازمانهای بینالمللی، رهبران صنعت و پژوهشگران به طور فزایندهای برای پرداختن به این نگرانیها همکاری میکنند – برای مثال، از طریق چارچوبهایی مانند:
- چارچوب مدیریت ریسک هوش مصنوعی NIST آمریکا (برای افزایش اعتماد به هوش مصنوعی)
- توصیههای جهانی اخلاق هوش مصنوعی یونسکو
- قانون هوش مصنوعی اتحادیه اروپا
این تلاشها هدف دارند تا مزایای هوش مصنوعی را به حداکثر و معایب آن را به حداقل برسانند و اطمینان دهند که هوش مصنوعی در خدمت بشریت است و نه بالعکس.
درک خطرات هوش مصنوعی اولین گام برای مدیریت آنهاست. با آگاه ماندن و مشارکت در نحوه توسعه و استفاده از هوش مصنوعی، میتوانیم این فناوری تحولآفرین را به سمت مسیر ایمن، عادلانه و سودمند برای همه هدایت کنیم.