هوش مصنوعی (AI) اکنون در همهچیز نفوذ کرده است؛ از دستیارهای گوشیهای هوشمند و فیدهای شبکههای اجتماعی گرفته تا حوزههای بهداشت و درمان و حملونقل. این فناوریها مزایای بیسابقهای به همراه دارند، اما در عین حال با خطرات و چالشهای قابل توجهی نیز همراه هستند.
کارشناسان و نهادهای بینالمللی هشدار میدهند که بدون چارچوبهای اخلاقی مناسب، هوش مصنوعی میتواند سوگیریها و تبعیضهای دنیای واقعی را بازتولید کند، به تخریب محیط زیست کمک کند، حقوق بشر را تهدید نماید و نابرابریهای موجود را تشدید کند.
در این مقاله، با INVIAI به بررسی خطرات استفاده از هوش مصنوعی در تمامی حوزهها و انواع هوش مصنوعی – از چتباتها و الگوریتمها تا رباتها – بر اساس دیدگاههای منابع رسمی و بینالمللی میپردازیم.
- 1. سوگیری و تبعیض در سیستمهای هوش مصنوعی
- 2. خطرات اطلاعات نادرست و دیپفیک
- 3. تهدیدهای حریم خصوصی و نظارت گسترده
- 4. شکستهای ایمنی و آسیبهای ناخواسته
- 5. جابهجایی شغلی و اختلالات اقتصادی
- 6. سوءاستفادههای جنایی، کلاهبرداری و تهدیدات امنیتی
- 7. نظامیسازی و سلاحهای خودمختار
- 8. کمبود شفافیت و پاسخگویی
- 9. تمرکز قدرت و نابرابری
- 10. تأثیرات زیستمحیطی هوش مصنوعی
- 11. خطرات وجودی و بلندمدت
سوگیری و تبعیض در سیستمهای هوش مصنوعی
یکی از خطرات اصلی هوش مصنوعی، تثبیت سوگیری و تبعیض ناعادلانه است. مدلهای هوش مصنوعی از دادههایی یاد میگیرند که ممکن است بازتابدهنده تعصبات یا نابرابریهای تاریخی باشند؛ در نتیجه، یک سیستم هوش مصنوعی ممکن است افراد را بر اساس نژاد، جنسیت یا ویژگیهای دیگر به گونهای متفاوت و ناعادلانه رفتار کند که بیعدالتی را تداوم بخشد.
برای مثال، «هوش مصنوعی چندمنظوره معیوب میتواند از طریق تصمیمات مغرضانه نسبت به ویژگیهای محافظتشده مانند نژاد، جنسیت، فرهنگ، سن و معلولیت آسیب برساند»، طبق گزارشی بینالمللی درباره ایمنی هوش مصنوعی.
الگوریتمهای مغرضانه که در استخدام، اعطای وام یا پلیسکاری به کار میروند، قبلاً منجر به نتایجی نابرابر شدهاند که گروههای خاصی را بهطور ناعادلانهای متضرر کردهاند. نهادهای جهانی مانند یونسکو هشدار میدهند که بدون اقدامات عدالتمحور، هوش مصنوعی خطر «بازتولید سوگیریها و تبعیضهای دنیای واقعی، تشدید شکافها و تهدید حقوق و آزادیهای بنیادین بشر» را دارد. اطمینان از آموزش سیستمهای هوش مصنوعی با دادههای متنوع و نماینده و بررسی آنها برای شناسایی سوگیری، برای جلوگیری از تبعیض خودکار ضروری است.
خطرات اطلاعات نادرست و دیپفیک
توانایی هوش مصنوعی در تولید متن، تصویر و ویدئوهای بسیار واقعی، نگرانیهایی درباره سیل اطلاعات نادرست ایجاد کرده است. هوش مصنوعی مولد میتواند مقالات خبری جعلی، تصاویر ساختگی یا ویدئوهای دیپفیک تولید کند که تشخیص آنها از واقعیت دشوار است.
گزارش ریسکهای جهانی ۲۰۲۴ مجمع جهانی اقتصاد، «اطلاعات دستکاریشده و جعلی» را به عنوان شدیدترین ریسک جهانی کوتاهمدت معرفی کرده و اشاره میکند که هوش مصنوعی «اطلاعات دستکاریشده و تحریفشده را تشدید میکند که میتواند جوامع را بیثبات کند.»
در واقع، اطلاعات نادرست و گمراهکنندهای که توسط هوش مصنوعی تقویت میشوند، یکی از «بزرگترین چالشهای تاریخ دموکراسی» به شمار میروند – بهویژه با توجه به میلیاردها نفری که در انتخابات پیش رو رأی خواهند داد. رسانههای مصنوعی مانند ویدئوهای دیپفیک و صداهای کلونشده توسط هوش مصنوعی میتوانند بهعنوان ابزار تبلیغاتی، جعل هویت شخصیتهای عمومی یا کلاهبرداری مورد استفاده قرار گیرند.
مقامات هشدار میدهند که افراد مخرب میتوانند از هوش مصنوعی برای کمپینهای گسترده اطلاعات نادرست بهره ببرند و این امر باعث میشود شبکههای اجتماعی با محتوای جعلی پر شود و آشوب ایجاد گردد. این خطر منجر به محیط اطلاعاتی بدبینانهای میشود که شهروندان نمیتوانند به آنچه میبینند یا میشنوند اعتماد کنند و این موضوع گفتوگوی عمومی و دموکراسی را تضعیف میکند.
تهدیدهای حریم خصوصی و نظارت گسترده
استفاده گسترده از هوش مصنوعی نگرانیهای جدی درباره حریم خصوصی ایجاد کرده است. سیستمهای هوش مصنوعی اغلب به حجم عظیمی از دادههای شخصی – از چهره و صدا تا عادات خرید و موقعیت مکانی – برای عملکرد مؤثر نیاز دارند. بدون حفاظتهای قوی، این دادهها میتوانند سوءاستفاده یا بهرهبرداری شوند.
برای مثال، فناوری تشخیص چهره و الگوریتمهای پیشبینی میتوانند نظارت فراگیر را ممکن سازند، به گونهای که هر حرکت افراد رصد شود یا رفتار آنها بدون رضایت ارزیابی گردد. توصیههای اخلاقی جهانی یونسکو به صراحت هشدار میدهد که «سیستمهای هوش مصنوعی نباید برای امتیازدهی اجتماعی یا نظارت گسترده استفاده شوند.» چنین کاربردهایی به طور گسترده به عنوان خطرات غیرقابل قبول شناخته میشوند.
علاوه بر این، تحلیل دادههای شخصی توسط هوش مصنوعی میتواند جزئیات خصوصی زندگی ما را – از وضعیت سلامت تا باورهای سیاسی – آشکار کند و تهدیدی برای حق حریم خصوصی باشد. سازمانهای حفاظت از داده تأکید دارند که حریم خصوصی «حق اساسی برای حفظ کرامت، خودمختاری و اختیار انسان است» که باید در تمام چرخه عمر سیستمهای هوش مصنوعی رعایت شود.
اگر توسعه هوش مصنوعی از مقررات حریم خصوصی پیشی بگیرد، افراد ممکن است کنترل اطلاعات خود را از دست بدهند. جامعه باید اطمینان حاصل کند که حاکمیت داده قوی، مکانیزمهای رضایت و تکنیکهای حفظ حریم خصوصی به کار گرفته شدهاند تا فناوریهای هوش مصنوعی به ابزارهای نظارت بیحد و حصر تبدیل نشوند.
شکستهای ایمنی و آسیبهای ناخواسته
در حالی که هوش مصنوعی میتواند تصمیمات و وظایف فیزیکی را با کارایی فراتر از توان انسانها خودکار کند، ممکن است بهطور غیرقابل پیشبینی شکست بخورد و به آسیبهای واقعی منجر شود. ما مسئولیتهای حیاتی بیشتری را به هوش مصنوعی میسپاریم – مانند رانندگی خودروها، تشخیص بیماریها یا مدیریت شبکههای برق – اما این سیستمها بینقص نیستند.
خطاها، دادههای آموزشی ناقص یا شرایط غیرمنتظره میتوانند باعث شوند هوش مصنوعی اشتباهات خطرناکی مرتکب شود. مثلاً هوش مصنوعی یک خودرو خودران ممکن است یک عابر پیاده را اشتباه تشخیص دهد یا هوش مصنوعی پزشکی درمان نادرستی را پیشنهاد کند که پیامدهای مرگباری داشته باشد.
با توجه به این موضوع، دستورالعملهای بینالمللی تأکید میکنند که آسیبهای ناخواسته و خطرات ایمنی هوش مصنوعی باید پیشبینی و پیشگیری شوند: «آسیبهای ناخواسته (خطرات ایمنی) و آسیبپذیریها در برابر حملات (خطرات امنیتی) باید در طول چرخه عمر سیستمهای هوش مصنوعی شناسایی و برطرف شوند تا ایمنی و امنیت انسان، محیط زیست و اکوسیستم تضمین گردد.»
به عبارت دیگر، سیستمهای هوش مصنوعی باید بهطور دقیق آزمایش، نظارت و با مکانیزمهای ایمنی ساخته شوند تا احتمال نقص کاهش یابد. اعتماد بیش از حد به هوش مصنوعی نیز میتواند خطرناک باشد – اگر انسانها بدون تردید به تصمیمات خودکار اعتماد کنند، ممکن است هنگام بروز مشکل به موقع مداخله نکنند.
بنابراین، تضمین نظارت انسانی حیاتی است. در کاربردهای حساس (مانند بهداشت و درمان یا حملونقل)، تصمیمات نهایی باید تحت قضاوت انسان باقی بمانند و همانطور که یونسکو اشاره میکند، «تصمیمات مرگ و زندگی نباید به سیستمهای هوش مصنوعی واگذار شود.» حفظ ایمنی و قابلیت اطمینان در هوش مصنوعی چالشی مستمر است که نیازمند طراحی دقیق و فرهنگ مسئولیتپذیری در توسعهدهندگان است.
جابهجایی شغلی و اختلالات اقتصادی
تأثیر تحولآفرین هوش مصنوعی بر اقتصاد، شمشیری دو لبه است. از یک سو، هوش مصنوعی میتواند بهرهوری را افزایش داده و صنایع کاملاً جدیدی ایجاد کند؛ از سوی دیگر، خطر جابهجایی میلیونها کارگر از طریق اتوماسیون را به همراه دارد.
بسیاری از مشاغل – بهویژه آنهایی که شامل وظایف تکراری، روتین یا دادههای قابل تحلیل آسان هستند – در معرض تصاحب توسط الگوریتمها و رباتهای هوش مصنوعی قرار دارند. پیشبینیهای جهانی هشداردهنده است: برای مثال، مجمع جهانی اقتصاد پیشبینی میکند که «۹۲ میلیون شغل تا سال ۲۰۳۰ به دلیل هوش مصنوعی و فناوریهای مرتبط جابهجا خواهند شد.»
اگرچه اقتصاد ممکن است نقشهای جدیدی ایجاد کند (که احتمالاً در بلندمدت حتی بیشتر از مشاغل از دست رفته خواهد بود)، گذار برای بسیاری دردناک خواهد بود. مشاغل جدید اغلب نیازمند مهارتهای متفاوت و پیشرفتهتر هستند یا در مراکز فناوری خاصی متمرکز میشوند، به این معنی که بسیاری از کارگران جابهجا شده ممکن است در یافتن جایگاه جدید دچار مشکل شوند.
این عدم تطابق بین مهارتهای کارگران و مهارتهای مورد نیاز نقشهای جدید مبتنی بر هوش مصنوعی میتواند منجر به افزایش بیکاری و نابرابری شود اگر به آن پرداخته نشود. در واقع، سیاستگذاران و پژوهشگران هشدار میدهند که پیشرفت سریع هوش مصنوعی میتواند «اختلال در بازار کار و نابرابریهای قدرت اقتصادی» را در مقیاس سیستماتیک به همراه داشته باشد.
برخی گروهها ممکن است بیشتر آسیب ببینند – برای مثال، برخی مطالعات نشان میدهد سهم بیشتری از مشاغل زنان یا کارگران در کشورهای در حال توسعه در معرض خطر بالای اتوماسیون قرار دارند. بدون اقدامات پیشگیرانه (مانند برنامههای بازآموزی، آموزش مهارتهای هوش مصنوعی و شبکههای ایمنی اجتماعی)، هوش مصنوعی میتواند شکافهای اجتماعی-اقتصادی را گسترش دهد و اقتصادی مبتنی بر هوش مصنوعی ایجاد کند که در آن صاحبان فناوری بیشترین بهره را میبرند.
آمادهسازی نیروی کار برای تأثیر هوش مصنوعی حیاتی است تا اطمینان حاصل شود مزایای اتوماسیون به طور گسترده تقسیم میشود و از ناآرامیهای اجتماعی ناشی از از دست دادن گسترده شغل جلوگیری شود.
سوءاستفادههای جنایی، کلاهبرداری و تهدیدات امنیتی
هوش مصنوعی ابزاری قدرتمند است که میتواند به همان اندازه برای اهداف نیکوکارانه و اهداف شوم به کار رود. جرمکاران سایبری و دیگر بازیگران مخرب در حال حاضر از هوش مصنوعی برای تقویت حملات خود بهره میبرند.
برای مثال، هوش مصنوعی میتواند ایمیلها یا پیامهای صوتی فیشینگ بسیار شخصیسازی شده (با کلون کردن صدای فرد) تولید کند تا افراد را فریب دهد اطلاعات حساس را فاش کنند یا پول ارسال نمایند. همچنین میتواند برای خودکارسازی هک با یافتن آسیبپذیریهای نرمافزاری در مقیاس وسیع یا توسعه بدافزارهای تطبیقپذیر برای فرار از شناسایی استفاده شود.
مرکز ایمنی هوش مصنوعی سوءاستفادههای مخرب از هوش مصنوعی را به عنوان نگرانی اصلی معرفی میکند و سناریوهایی مانند استفاده مجرمان از سیستمهای هوش مصنوعی برای انجام کلاهبرداریها و حملات سایبری گسترده را مطرح میسازد. در واقع، گزارشی که توسط دولت بریتانیا سفارش داده شده به صراحت هشدار داده است که «افراد مخرب میتوانند از هوش مصنوعی برای عملیات گسترده اطلاعات نادرست، تأثیرگذاری، کلاهبرداری و تقلب استفاده کنند.»
سرعت، مقیاس و پیچیدگی که هوش مصنوعی فراهم میکند میتواند دفاعهای سنتی را تحت فشار قرار دهد – تصور کنید هزاران تماس کلاهبرداری تولید شده توسط هوش مصنوعی یا ویدئوهای دیپفیک که در یک روز امنیت یک شرکت را هدف قرار میدهند.
فراتر از جرایم مالی، خطر استفاده از هوش مصنوعی برای تسهیل سرقت هویت، آزار و اذیت یا تولید محتوای مضر (مانند پورنوگرافی دیپفیک بدون رضایت یا تبلیغات گروههای افراطی) نیز وجود دارد. با دسترسی بیشتر به ابزارهای هوش مصنوعی، موانع انجام این فعالیتهای مخرب کاهش یافته و احتمال افزایش جرایم تقویتشده با هوش مصنوعی وجود دارد.
این موضوع نیازمند رویکردهای جدید در امنیت سایبری و اجرای قانون است، مانند سیستمهای هوش مصنوعی که میتوانند دیپفیکها یا رفتارهای غیرعادی را شناسایی کنند و چارچوبهای قانونی بهروزشده برای پاسخگو کردن مجرمان. به طور خلاصه، باید انتظار داشت هر قابلیتی که هوش مصنوعی به نفعان میدهد، ممکن است به مجرمان نیز داده شود – و باید برای آن آماده بود.
نظامیسازی و سلاحهای خودمختار
شاید ترسناکترین خطر هوش مصنوعی در زمینه جنگ و امنیت ملی ظهور کند. هوش مصنوعی به سرعت در سیستمهای نظامی ادغام میشود و چشمانداز سلاحهای خودمختار («رباتهای قاتل») و تصمیمگیری مبتنی بر هوش مصنوعی در میدان نبرد را به وجود میآورد.
این فناوریها میتوانند سریعتر از هر انسان واکنش نشان دهند، اما حذف کنترل انسانی از استفاده از نیروی کشنده پرخطر است. خطر این وجود دارد که سلاح کنترلشده توسط هوش مصنوعی هدف اشتباهی را انتخاب کند یا درگیریها را به شکل غیرمنتظرهای تشدید نماید. ناظران بینالمللی هشدار میدهند که «نظامیسازی هوش مصنوعی» تهدیدی رو به رشد است.
اگر کشورها در رقابت برای تجهیز زرادخانههای خود به سلاحهای هوشمند باشند، ممکن است مسابقه تسلیحاتی بیثباتکنندهای آغاز شود. علاوه بر این، هوش مصنوعی میتواند در جنگ سایبری برای حمله خودکار به زیرساختهای حیاتی یا انتشار تبلیغات استفاده شود و مرز بین صلح و درگیری را مبهم سازد.
سازمان ملل نگرانی خود را اعلام کرده است که توسعه هوش مصنوعی در جنگ، اگر در دست عدهای محدود باقی بماند، «ممکن است بر مردم تحمیل شود بدون اینکه آنها در نحوه استفاده از آن نقشی داشته باشند» و امنیت و اخلاق جهانی را تضعیف کند.
سیستمهای سلاح خودمختار همچنین چالشهای حقوقی و اخلاقی ایجاد میکنند – چه کسی مسئول است اگر پهپاد هوش مصنوعی به اشتباه غیرنظامیان را بکشد؟ این سیستمها چگونه با قوانین بینالمللی بشردوستانه سازگار میشوند؟
این سوالات بیپاسخ منجر به درخواستهایی برای ممنوعیت یا تنظیم سختگیرانه برخی سلاحهای مجهز به هوش مصنوعی شده است. اطمینان از نظارت انسانی بر هر هوش مصنوعی که میتواند تصمیمات مرگ و زندگی بگیرد، به طور گستردهای ضروری تلقی میشود. بدون این نظارت، خطر نه تنها اشتباهات فاجعهبار در میدان جنگ بلکه تضعیف مسئولیت انسانی در جنگ است.
کمبود شفافیت و پاسخگویی
اکثر سیستمهای پیشرفته هوش مصنوعی امروزی به صورت «جعبه سیاه» عمل میکنند – منطق داخلی آنها حتی برای سازندگانشان نیز اغلب مبهم است. این کمبود شفافیت خطر این را ایجاد میکند که تصمیمات هوش مصنوعی قابل توضیح یا به چالش کشیدن نباشند، که در حوزههایی مانند عدالت، امور مالی یا بهداشت و درمان که توضیحپذیری میتواند الزام قانونی یا اخلاقی باشد، مشکل جدی است.
اگر هوش مصنوعی به کسی وام ندهد، بیماری را تشخیص دهد یا تصمیم بگیرد چه کسی از زندان آزاد شود، طبیعی است که بخواهیم بدانیم چرا. با برخی مدلهای هوش مصنوعی (بهویژه شبکههای عصبی پیچیده)، ارائه دلیل واضح دشوار است.
«کمبود شفافیت» میتواند اعتماد را تضعیف کند و «ممکن است امکان به چالش کشیدن مؤثر تصمیمات مبتنی بر نتایج سیستمهای هوش مصنوعی را نیز کاهش دهد»، همانطور که یونسکو اشاره میکند، «و ممکن است حق به دادرسی عادلانه و جبران مؤثر را نقض کند.»
به عبارت دیگر، اگر نه کاربران و نه ناظران نتوانند بفهمند هوش مصنوعی چگونه تصمیم میگیرد، تقریباً غیرممکن است کسی را مسئول اشتباهات یا سوگیریهای به وجود آمده دانست.
این شکاف پاسخگویی یک خطر بزرگ است: شرکتها ممکن است با مقصر دانستن «الگوریتم» از مسئولیت فرار کنند و افراد آسیبدیده ممکن است راهحلی نداشته باشند. برای مقابله با این موضوع، کارشناسان از تکنیکهای هوش مصنوعی قابل توضیح، ممیزی دقیق و الزامات قانونی که تصمیمات هوش مصنوعی به مرجع انسانی قابل ردیابی باشند، حمایت میکنند.
در واقع، دستورالعملهای اخلاقی جهانی تأکید دارند که باید «همیشه امکان نسبت دادن مسئولیت اخلاقی و قانونی» رفتار سیستمهای هوش مصنوعی به یک شخص یا سازمان وجود داشته باشد. انسانها باید در نهایت پاسخگو باقی بمانند و هوش مصنوعی باید در امور حساس کمککننده باشد نه جایگزین قضاوت انسانی. در غیر این صورت، خطر ایجاد دنیایی است که در آن تصمیمات مهم توسط ماشینهای غیرقابل فهم گرفته میشود که زمینهساز بیعدالتی است.
تمرکز قدرت و نابرابری
انقلاب هوش مصنوعی به طور یکنواخت در سراسر جهان رخ نمیدهد – تعداد کمی از شرکتها و کشورها توسعه هوش مصنوعی پیشرفته را در دست دارند که خود خطراتی به همراه دارد.
مدلهای پیشرفته هوش مصنوعی به دادهها، استعدادها و منابع محاسباتی عظیمی نیاز دارند که تنها غولهای فناوری (و دولتهای دارای بودجه کافی) در حال حاضر در اختیار دارند. این منجر به «زنجیره تأمین بسیار متمرکز، یگانه و جهانی شده است که به نفع چند شرکت و کشور است»، طبق گزارش مجمع جهانی اقتصاد.
چنین تمرکز قدرت هوش مصنوعی میتواند به کنترل انحصاری فناوریهای هوش مصنوعی منجر شود، رقابت و انتخاب مصرفکننده را محدود کند. همچنین خطر این وجود دارد که اولویتهای آن چند شرکت یا کشور، هوش مصنوعی را به گونهای شکل دهد که منافع عمومی گستردهتر را در نظر نگیرد.
سازمان ملل هشدار داده است که «خطر تحمیل فناوری [هوش مصنوعی] بر مردم بدون اینکه آنها در نحوه استفاده از آن نقشی داشته باشند» زمانی که توسعه محدود به عدهای قدرتمند باشد، وجود دارد.
این عدم تعادل میتواند نابرابریهای جهانی را تشدید کند: کشورهای ثروتمند و شرکتها با بهرهگیری از هوش مصنوعی پیشرفت میکنند، در حالی که جوامع فقیرتر به ابزارهای جدید دسترسی ندارند و از مزایای هوش مصنوعی بهرهمند نمیشوند و در عین حال با از دست دادن شغل مواجهاند. علاوه بر این، صنعت متمرکز هوش مصنوعی ممکن است نوآوری را خفه کند (اگر تازهواردان نتوانند با منابع شرکتهای بزرگ رقابت کنند) و خطرات امنیتی ایجاد نماید (اگر زیرساختهای حیاتی هوش مصنوعی در کنترل چند نهاد باشد، نقطهای آسیبپذیر یا قابل دستکاری ایجاد میشود).
پرداختن به این خطر نیازمند همکاری بینالمللی و احتمالاً مقررات جدید برای دموکراتیزه کردن توسعه هوش مصنوعی است – برای مثال، حمایت از تحقیقات باز، تضمین دسترسی عادلانه به دادهها و منابع محاسباتی و تدوین سیاستهایی مانند قانون پیشنهادی هوش مصنوعی اتحادیه اروپا برای جلوگیری از سوءاستفاده توسط «نگهبانان هوش مصنوعی». چشمانداز هوش مصنوعی فراگیرتر به توزیع عادلانه مزایای هوش مصنوعی در سطح جهانی کمک خواهد کرد و شکاف بین دارندگان و ندارندگان فناوری را کاهش میدهد.
تأثیرات زیستمحیطی هوش مصنوعی
یکی از جنبههای کمتر مورد توجه در بحث خطرات هوش مصنوعی، ردپای زیستمحیطی آن است. توسعه هوش مصنوعی، به ویژه آموزش مدلهای بزرگ یادگیری ماشین، مصرف بسیار بالایی از برق و قدرت محاسباتی دارد.
مرکز دادههایی که مملو از هزاران سرور پرمصرف هستند، برای پردازش حجم عظیم دادههایی که سیستمهای هوش مصنوعی از آنها یاد میگیرند، لازم است. این بدان معناست که هوش مصنوعی به طور غیرمستقیم به انتشار کربن و تغییرات اقلیمی کمک میکند.
گزارش اخیر یک سازمان ملل نشان داد که انتشار کربن غیرمستقیم چهار شرکت پیشرو در حوزه فناوری هوش مصنوعی به طور متوسط ۱۵۰٪ از سال ۲۰۲۰ تا ۲۰۲۳ افزایش یافته است که عمدتاً به دلیل نیازهای انرژی مراکز داده هوش مصنوعی است.
با افزایش سرمایهگذاری در هوش مصنوعی، انتظار میرود انتشار گازهای گلخانهای ناشی از اجرای مدلهای هوش مصنوعی به شدت افزایش یابد – این گزارش پیشبینی کرده است که برترین سیستمهای هوش مصنوعی میتوانند سالانه بیش از ۱۰۰ میلیون تن دیاکسید کربن منتشر کنند که فشار قابل توجهی بر زیرساختهای انرژی وارد میکند.
برای درک بهتر، مراکز دادهای که هوش مصنوعی را تغذیه میکنند، مصرف برق را «چهار برابر سریعتر از افزایش کلی مصرف برق» افزایش میدهند.
علاوه بر انتشار کربن، هوش مصنوعی میتواند برای خنکسازی آب زیادی مصرف کند و زبالههای الکترونیکی تولید نماید زیرا سختافزار به سرعت بهروزرسانی میشود. اگر کنترل نشود، تأثیرات زیستمحیطی هوش مصنوعی میتواند تلاشهای جهانی برای پایداری را تضعیف کند.
این خطر نیازمند بهینهسازی مصرف انرژی هوش مصنوعی و استفاده از منابع انرژی پاکتر است. پژوهشگران در حال توسعه تکنیکهای هوش مصنوعی سبز برای کاهش مصرف انرژی هستند و برخی شرکتها متعهد شدهاند هزینههای کربنی هوش مصنوعی را جبران کنند. با این حال، این موضوع همچنان نگرانی جدی است که شتاب به سوی هوش مصنوعی میتواند هزینه زیستمحیطی سنگینی داشته باشد. تعادل بین پیشرفت فناوری و مسئولیت زیستمحیطی چالشی است که جامعه باید در مسیر ادغام هوش مصنوعی در همهجا به آن توجه کند.
خطرات وجودی و بلندمدت
فراتر از خطرات فوری، برخی کارشناسان درباره خطرات فرضی و بلندمدت هوش مصنوعی هشدار میدهند – از جمله احتمال ظهور هوش مصنوعی پیشرفتهای که از کنترل انسان خارج شود. در حالی که سیستمهای هوش مصنوعی امروزی در قابلیتهای خود محدود هستند، پژوهشگران به طور فعال در حال کار روی هوش مصنوعی عمومیتر هستند که ممکن است در بسیاری از حوزهها از انسانها پیشی بگیرد.
این موضوع سوالات پیچیدهای را مطرح میکند: اگر هوش مصنوعی بسیار هوشمندتر یا خودمختارتر شود، آیا ممکن است به گونهای عمل کند که بقای بشریت را تهدید کند؟ اگرچه این موضوع شبیه داستانهای علمی-تخیلی به نظر میرسد، چهرههای برجسته در جامعه فناوری نگرانی خود را درباره سناریوهای «هوش مصنوعی سرکش» ابراز کردهاند و دولتها این بحث را جدی گرفتهاند.
در سال ۲۰۲۳، بریتانیا میزبان اجلاس جهانی ایمنی هوش مصنوعی بود تا به خطرات پیشرفته هوش مصنوعی بپردازد. اجماع علمی یکسان نیست – برخی معتقدند هوش مصنوعی فوقالعاده هوشمند هنوز دههها فاصله دارد یا میتوان آن را با ارزشهای انسانی همسو نگه داشت، در حالی که برخی دیگر احتمال کمی اما غیرصفر برای پیامدهای فاجعهبار قائلاند.
گزارش اخیر بینالمللی ایمنی هوش مصنوعی اشاره کرده است که «کارشناسان دیدگاههای متفاوتی درباره خطر از دست دادن کنترل بشر بر هوش مصنوعی به گونهای که منجر به پیامدهای فاجعهبار شود، دارند.»
به طور خلاصه، اذعان شده است که خطر وجودی هوش مصنوعی، هرچند دور از ذهن، نمیتواند به طور کامل نادیده گرفته شود. چنین نتیجهای ممکن است شامل هوش مصنوعیای باشد که اهداف خود را به ضرر رفاه انسان دنبال کند (مثال کلاسیک، هوش مصنوعیای است که اگر به اشتباه برنامهریزی شود، به دلیل فقدان عقل سلیم یا محدودیتهای اخلاقی، کاری مضر در مقیاس وسیع انجام دهد).
در حالی که هیچ هوش مصنوعی امروزی به چنین سطحی از خودمختاری نرسیده است، سرعت پیشرفت هوش مصنوعی سریع و غیرقابل پیشبینی است که خود یک عامل خطر محسوب میشود. آمادهسازی برای خطرات بلندمدت به معنای سرمایهگذاری در پژوهشهای همسویی هوش مصنوعی (اطمینان از سازگاری اهداف هوش مصنوعی با ارزشهای انسانی)، ایجاد توافقات بینالمللی درباره پژوهشهای حساس هوش مصنوعی (مشابه معاهدات تسلیحات هستهای یا بیولوژیکی) و حفظ نظارت انسانی با افزایش توانایی سیستمهای هوش مصنوعی است.
آینده هوش مصنوعی وعدههای بزرگی دارد، اما همچنین عدم قطعیت – و خرد حکم میکند که حتی خطرات کماحتمال و با تأثیر بالا را در برنامهریزی بلندمدت خود در نظر بگیریم.
>>> برای اطلاعات بیشتر کلیک کنید: مزایای هوش مصنوعی برای افراد و کسبوکارها
هوش مصنوعی اغلب با یک موتور قدرتمند مقایسه میشود که میتواند بشریت را به جلو براند – اما بدون ترمز و فرمان، آن موتور ممکن است از مسیر خارج شود. همانطور که دیدیم، خطرات استفاده از هوش مصنوعی چندوجهی هستند: از مسائل فوری مانند الگوریتمهای مغرضانه، اخبار جعلی، نقض حریم خصوصی و تغییرات شغلی گرفته تا چالشهای گستردهتر اجتماعی مانند تهدیدات امنیتی، تصمیمگیری «جعبه سیاه»، انحصار شرکتهای بزرگ فناوری، فشارهای زیستمحیطی و حتی سایه دوردست از دست دادن کنترل به هوش مصنوعی فوقالعاده هوشمند.
این خطرات به معنای توقف توسعه هوش مصنوعی نیست؛ بلکه بر نیاز فوری به حکمرانی مسئولانه هوش مصنوعی و رعایت اصول اخلاقی تأکید میکنند.
دولتها، سازمانهای بینالمللی، رهبران صنعت و پژوهشگران به طور فزایندهای برای پرداختن به این نگرانیها همکاری میکنند – برای مثال، از طریق چارچوبهایی مانند چارچوب مدیریت ریسک هوش مصنوعی NIST آمریکا (برای افزایش اعتماد به هوش مصنوعی)، توصیههای جهانی اخلاق هوش مصنوعی یونسکو و قانون هوش مصنوعی اتحادیه اروپا.
این تلاشها هدف دارند تا مزایای هوش مصنوعی را به حداکثر و معایب آن را به حداقل برسانند و اطمینان حاصل کنند که هوش مصنوعی در خدمت بشریت است و نه بالعکس. در نهایت، درک خطرات هوش مصنوعی نخستین گام برای مدیریت آنهاست. با آگاهی و مشارکت در نحوه توسعه و استفاده از هوش مصنوعی، میتوانیم این فناوری تحولآفرین را به سوی مسیری ایمن، عادلانه و سودمند برای همه هدایت کنیم.