خطرات استفاده از هوش مصنوعی

هوش مصنوعی (AI) مزایای زیادی به همراه دارد اما در صورت سوءاستفاده یا استفاده بدون کنترل، خطرات فراوانی نیز ایجاد می‌کند. از مسائل امنیت داده‌ها، تحریف اطلاعات، نقض حق نشر تا خطر جایگزینی نیروی کار، هوش مصنوعی چالش‌هایی را به وجود می‌آورد که باید به‌درستی شناسایی و مدیریت شوند. درک خطرات استفاده از هوش مصنوعی به افراد و کسب‌وکارها کمک می‌کند تا این فناوری را به‌صورت ایمن و پایدار به کار گیرند.

هوش مصنوعی (AI) اکنون در همه‌چیز از دستیارهای گوشی‌های هوشمند و فیدهای شبکه‌های اجتماعی گرفته تا حوزه‌های بهداشت و درمان و حمل‌ونقل نفوذ کرده است. این فناوری‌ها مزایای بی‌سابقه‌ای به همراه دارند، اما همچنین با خطرات و چالش‌های قابل توجهی همراه هستند.

هشدار حیاتی: کارشناسان و نهادهای جهانی هشدار می‌دهند که بدون چارچوب‌های اخلاقی مناسب، هوش مصنوعی می‌تواند تعصبات و تبعیض‌های دنیای واقعی را بازتولید کند، به آسیب‌های زیست‌محیطی دامن بزند، حقوق بشر را تهدید کند و نابرابری‌های موجود را تشدید نماید.

در این مقاله، با INVIAI خطرات استفاده از هوش مصنوعی را در تمامی حوزه‌ها و انواع هوش مصنوعی – از چت‌بات‌ها و الگوریتم‌ها تا ربات‌ها – بر اساس دیدگاه‌های منابع رسمی و بین‌المللی بررسی می‌کنیم.

فهرست مطالب

تعصب و تبعیض در سیستم‌های هوش مصنوعی

یکی از خطرات عمده هوش مصنوعی، تثبیت تعصب و تبعیض ناعادلانه است. مدل‌های هوش مصنوعی از داده‌هایی یاد می‌گیرند که ممکن است بازتاب‌دهنده پیش‌داوری‌ها یا نابرابری‌های تاریخی باشند؛ در نتیجه، یک سیستم هوش مصنوعی می‌تواند افراد را بر اساس نژاد، جنسیت یا ویژگی‌های دیگر به گونه‌ای متفاوت و ناعادلانه رفتار کند که بی‌عدالتی را تداوم می‌بخشد.

هوش مصنوعی عمومی معیوب می‌تواند از طریق تصمیمات مغرضانه نسبت به ویژگی‌های محافظت‌شده مانند نژاد، جنسیت، فرهنگ، سن و ناتوانی آسیب برساند.

— گزارش ایمنی هوش مصنوعی بین‌المللی
تأثیر دنیای واقعی: الگوریتم‌های مغرضانه که در استخدام، اعطای وام یا پلیس‌داری استفاده شده‌اند، قبلاً منجر به نتایج نابرابر و ناعادلانه علیه گروه‌های خاص شده‌اند.

نهادهای جهانی مانند یونسکو هشدار می‌دهند که بدون اقدامات عدالت‌محور، هوش مصنوعی خطر «بازتولید تعصبات و تبعیض‌های دنیای واقعی، دامن زدن به تفرقه‌ها و تهدید حقوق و آزادی‌های بنیادین بشر» را دارد. اطمینان از آموزش سیستم‌های هوش مصنوعی با داده‌های متنوع و نماینده و بررسی آن‌ها برای تعصب، برای جلوگیری از تبعیض خودکار ضروری است.

تعصب در استخدام

ابزارهای استخدام هوش مصنوعی ممکن است علیه برخی گروه‌های جمعیتی تبعیض قائل شوند

تبعیض در اعطای وام

الگوریتم‌های مالی ممکن است به ناحق وام‌ها را بر اساس ویژگی‌های محافظت‌شده رد کنند

نابرابری در پلیس‌داری

پلیس‌داری پیش‌بینی‌کننده ممکن است تعصبات موجود در اجرای قانون را تقویت کند

تعصب و تبعیض در سیستم‌های هوش مصنوعی
تعصب و تبعیض در سیستم‌های هوش مصنوعی

خطرات اطلاعات نادرست و دیپ‌فیک

توانایی هوش مصنوعی در تولید متن، تصویر و ویدئوهای بسیار واقعی، نگرانی‌هایی درباره سیل اطلاعات نادرست ایجاد کرده است. هوش مصنوعی مولد می‌تواند مقالات خبری جعلی، تصاویر ساختگی یا ویدئوهای دیپ‌فیک تولید کند که تشخیص آن‌ها از واقعیت دشوار است.

هشدار جهانی خطر: گزارش ریسک‌های جهانی مجمع جهانی اقتصاد ۲۰۲۴ «اطلاعات دستکاری‌شده و جعل‌شده» را شدیدترین ریسک کوتاه‌مدت جهانی می‌داند و اشاره می‌کند که هوش مصنوعی «اطلاعات دستکاری‌شده و تحریف‌شده را تشدید می‌کند که می‌تواند جوامع را بی‌ثبات کند.»

در واقع، اطلاعات نادرست و گمراه‌کننده‌ای که توسط هوش مصنوعی تقویت می‌شود، یکی از «بزرگ‌ترین چالش‌های تاریخ دموکراسی» است – به‌ویژه با میلیاردها نفری که در انتخابات آینده رأی خواهند داد. رسانه‌های مصنوعی مانند ویدئوهای دیپ‌فیک و صداهای کلون‌شده هوش مصنوعی می‌توانند برای پخش تبلیغات، جعل شخصیت‌های عمومی یا ارتکاب کلاهبرداری به کار روند.

ویدئوهای دیپ‌فیک

ویدئوهای جعلی بسیار واقعی که می‌توانند هر کسی را جعل کنند و ممکن است برای کلاهبرداری یا دستکاری سیاسی استفاده شوند.

کلون‌سازی صدا

شبیه‌سازی صدای افراد توسط هوش مصنوعی برای اهداف فریب‌دهنده.

مقامات هشدار می‌دهند که افراد مخرب می‌توانند از هوش مصنوعی برای کمپین‌های گسترده اطلاعات نادرست استفاده کنند و به‌راحتی شبکه‌های اجتماعی را با محتوای جعلی پر کنند و آشوب ایجاد نمایند. خطر ایجاد محیط اطلاعاتی بدبینانه است که شهروندان نتوانند به آنچه می‌بینند یا می‌شنوند اعتماد کنند و این امر گفت‌وگوی عمومی و دموکراسی را تضعیف می‌کند.

خطرات اطلاعات نادرست و دیپ‌فیک در هوش مصنوعی
خطرات اطلاعات نادرست و دیپ‌فیک در هوش مصنوعی

تهدیدات حریم خصوصی و نظارت گسترده

استفاده گسترده از هوش مصنوعی نگرانی‌های جدی درباره حریم خصوصی ایجاد می‌کند. سیستم‌های هوش مصنوعی اغلب به حجم عظیمی از داده‌های شخصی – از چهره‌ها و صداها تا عادات خرید و موقعیت مکانی – نیاز دارند تا به‌خوبی عمل کنند. بدون محافظت‌های قوی، این داده‌ها می‌توانند سوءاستفاده یا بهره‌برداری شوند.

هشدار یونسکو: نباید از سیستم‌های هوش مصنوعی برای امتیازدهی اجتماعی یا نظارت گسترده استفاده شود. چنین کاربردهایی به‌طور گسترده به‌عنوان خطرات غیرقابل قبول شناخته می‌شوند.

برای مثال، تشخیص چهره و الگوریتم‌های پیش‌بینی می‌توانند نظارت فراگیر را ممکن سازند، به‌طوری که هر حرکت افراد را ردیابی کرده یا رفتارشان را بدون رضایت ارزیابی کنند.

تشخیص چهره

ردیابی مداوم افراد در فضاهای عمومی

  • ردیابی هویت
  • تحلیل رفتاری

تحلیل پیش‌بینی

تحلیل هوش مصنوعی که جزئیات شخصی صمیمانه را آشکار می‌کند

  • وضعیت سلامت
  • باورها و گرایش‌های سیاسی

امتیازدهی اجتماعی

ارزیابی شهروندان بر اساس الگوهای رفتاری

  • امتیاز اعتباری
  • انطباق اجتماعی

حریم خصوصی حقی است اساسی برای حفاظت از کرامت، خودمختاری و اختیار انسان که باید در طول چرخه عمر سیستم‌های هوش مصنوعی رعایت شود.

— سازمان‌های حفاظت از داده‌ها

اگر توسعه هوش مصنوعی از مقررات حریم خصوصی پیشی بگیرد، افراد ممکن است کنترل اطلاعات خود را از دست بدهند. جامعه باید اطمینان حاصل کند که حاکمیت داده‌ها، مکانیزم‌های رضایت و تکنیک‌های حفظ حریم خصوصی به‌خوبی اجرا شوند تا فناوری‌های هوش مصنوعی به ابزارهای نظارت بی‌حد و حصر تبدیل نشوند.

تهدیدات حریم خصوصی و نظارت گسترده
تهدیدات حریم خصوصی و نظارت گسترده

شکست‌های ایمنی و آسیب‌های ناخواسته

در حالی که هوش مصنوعی می‌تواند تصمیمات و وظایف فیزیکی را با کارایی فوق‌العاده خودکار کند، ممکن است به‌صورت غیرقابل پیش‌بینی شکست بخورد و به آسیب‌های واقعی منجر شود. ما مسئولیت‌های حیاتی بیشتری را به هوش مصنوعی می‌سپاریم – مانند رانندگی خودروها، تشخیص بیماران یا مدیریت شبکه‌های برق – اما این سیستم‌ها بی‌نقص نیستند.

خطاها، داده‌های آموزشی ناقص یا شرایط پیش‌بینی‌نشده می‌توانند باعث شوند هوش مصنوعی اشتباهات خطرناکی مرتکب شود. هوش مصنوعی خودروهای خودران ممکن است عابر پیاده را اشتباه تشخیص دهد یا هوش مصنوعی پزشکی درمان نادرستی پیشنهاد کند که پیامدهای مرگباری داشته باشد.

وسایل نقلیه خودران

تشخیص نادرست عابران یا موانع که منجر به تصادفات می‌شود

هوش مصنوعی پزشکی

تشخیص‌ها یا توصیه‌های درمانی نادرست با پیامدهای تهدیدکننده زندگی

مدیریت شبکه برق

شکست‌های سیستم که باعث خاموشی‌های گسترده یا آسیب به زیرساخت‌ها می‌شود

آسیب‌های ناخواسته (ریسک‌های ایمنی) و همچنین آسیب‌پذیری در برابر حملات (ریسک‌های امنیتی) باید در طول چرخه عمر سیستم‌های هوش مصنوعی اجتناب و رسیدگی شوند تا ایمنی و امنیت انسان، محیط زیست و اکوسیستم تضمین شود.

— دستورالعمل‌های بین‌المللی هوش مصنوعی
اصل حیاتی: تصمیمات حیاتی زندگی و مرگ نباید به سیستم‌های هوش مصنوعی واگذار شود. حفظ نظارت انسانی در کاربردهای حساس بسیار مهم است.

به عبارت دیگر، سیستم‌های هوش مصنوعی باید به‌طور دقیق آزمایش، نظارت و با مکانیزم‌های ایمنی ساخته شوند تا احتمال خطا به حداقل برسد. اعتماد بیش از حد به هوش مصنوعی نیز خطرناک است – اگر انسان‌ها کورکورانه به تصمیمات خودکار اعتماد کنند، ممکن است هنگام بروز مشکل به موقع مداخله نکنند.

بنابراین، حفظ نظارت انسانی حیاتی است. در کاربردهای حساس (مانند بهداشت و درمان یا حمل‌ونقل)، تصمیمات نهایی باید تحت قضاوت انسان باقی بمانند. حفظ ایمنی و قابلیت اطمینان در هوش مصنوعی چالشی مستمر است که نیازمند طراحی دقیق و فرهنگ مسئولیت‌پذیری از سوی توسعه‌دهندگان هوش مصنوعی است.

شکست‌های ایمنی و آسیب‌های ناخواسته در هوش مصنوعی
شکست‌های ایمنی و آسیب‌های ناخواسته در هوش مصنوعی

جابجایی شغلی و اختلال اقتصادی

تأثیر تحول‌آفرین هوش مصنوعی بر اقتصاد دو لبه است. از یک سو، هوش مصنوعی می‌تواند بهره‌وری را افزایش داده و صنایع کاملاً جدیدی ایجاد کند؛ از سوی دیگر، خطر جابجایی میلیون‌ها کارگر از طریق اتوماسیون را به همراه دارد.

بسیاری از مشاغل – به‌ویژه آن‌هایی که شامل وظایف تکراری، روتین یا داده‌های قابل تحلیل آسان هستند – در معرض تصاحب توسط الگوریتم‌ها و ربات‌های هوش مصنوعی قرار دارند.

پیش‌بینی هشداردهنده: مجمع جهانی اقتصاد پیش‌بینی می‌کند که تا سال ۲۰۳۰، نود و دو میلیون شغل به دلیل هوش مصنوعی و فناوری‌های مرتبط جابجا خواهند شد.
نیروی کار فعلی

مشاغل سنتی

  • وظایف روتین و تکراری
  • نقش‌های تحلیل داده
  • مشاغل کارگری دستی
  • خدمات مشتری پایه
اقتصاد مبتنی بر هوش مصنوعی

مهارت‌های جدید مورد نیاز

  • مهارت‌های همکاری با هوش مصنوعی
  • حل خلاقانه مسائل
  • مدیریت فنی هوش مصنوعی
  • خدمات انسان‌محور

اگرچه اقتصاد ممکن است نقش‌های جدیدی ایجاد کند (که احتمالاً در بلندمدت حتی بیشتر از مشاغل از دست رفته است)، گذار برای بسیاری دردناک خواهد بود. مشاغل جدید اغلب نیازمند مهارت‌های متفاوت و پیشرفته‌تر هستند یا در مراکز فناوری خاصی متمرکزند، به این معنی که بسیاری از کارگران جابجا شده ممکن است در یافتن جایگاه جدید دچار مشکل شوند.

این عدم تطابق بین مهارت‌های کارگران و مهارت‌های مورد نیاز نقش‌های جدید مبتنی بر هوش مصنوعی می‌تواند منجر به افزایش بیکاری و نابرابری شود اگر به آن پرداخته نشود. در واقع، سیاست‌گذاران و پژوهشگران هشدار می‌دهند که پیشرفت سریع هوش مصنوعی می‌تواند «اختلال در بازار کار و نابرابری‌های قدرت اقتصادی» را به‌صورت سیستماتیک به همراه داشته باشد.

تأثیر جنسیتی

نسبت بالاتری از مشاغل زنان در معرض خطر اتوماسیون قرار دارد

کشورهای در حال توسعه

کارگران در کشورهای در حال توسعه با خطرات بالاتر اتوماسیون مواجه‌اند

بدون اقدامات پیشگیرانه (مانند برنامه‌های بازآموزی، آموزش مهارت‌های هوش مصنوعی و شبکه‌های ایمنی اجتماعی)، هوش مصنوعی می‌تواند شکاف‌های اجتماعی-اقتصادی را گسترش دهد و اقتصادی مبتنی بر هوش مصنوعی ایجاد کند که در آن صاحبان فناوری بیشترین منافع را می‌برند.

آماده‌سازی نیروی کار برای تأثیر هوش مصنوعی حیاتی است تا اطمینان حاصل شود که مزایای اتوماسیون به‌طور گسترده تقسیم می‌شود و از ناآرامی‌های اجتماعی ناشی از از دست دادن گسترده شغل جلوگیری شود.

جابجایی شغلی و اختلال اقتصادی در هوش مصنوعی
جابجایی شغلی و اختلال اقتصادی در هوش مصنوعی

سوءاستفاده‌های جنایی، کلاهبرداری و تهدیدات امنیتی

هوش مصنوعی ابزاری قدرتمند است که می‌تواند به همان اندازه برای اهداف ناپسند به کار رود که برای اهداف نیکو. جرم‌کاران سایبری و دیگر افراد مخرب در حال حاضر از هوش مصنوعی برای تقویت حملات خود بهره می‌برند.

برای مثال، هوش مصنوعی می‌تواند ایمیل‌ها یا پیام‌های صوتی فیشینگ بسیار شخصی‌سازی‌شده (با کلون‌سازی صدای فرد) تولید کند تا افراد را فریب دهد اطلاعات حساس یا پول ارسال کنند. همچنین می‌تواند برای خودکارسازی هک با یافتن آسیب‌پذیری‌های نرم‌افزاری در مقیاس وسیع یا توسعه بدافزارهای تطبیق‌پذیر برای فرار از شناسایی استفاده شود.

فیشینگ مبتنی بر هوش مصنوعی

ایمیل‌های فریبنده بسیار شخصی‌سازی‌شده تولید شده در مقیاس وسیع

هک خودکار

سیستم‌های هوش مصنوعی که آسیب‌پذیری‌ها را سریع‌تر از هکرهای انسانی پیدا می‌کنند

بدافزار تطبیق‌پذیر

نرم‌افزارهای مخرب خودتغییر که از شناسایی فرار می‌کنند

افراد مخرب می‌توانند از هوش مصنوعی برای عملیات‌های گسترده اطلاعات نادرست، تأثیرگذاری، کلاهبرداری و تقلب استفاده کنند.

— گزارش سفارش‌شده توسط دولت بریتانیا

مرکز ایمنی هوش مصنوعی سوءاستفاده مخرب از هوش مصنوعی را یک نگرانی کلیدی می‌داند و به سناریوهایی مانند استفاده مجرمان از سیستم‌های هوش مصنوعی برای انجام کلاهبرداری‌ها و حملات سایبری گسترده اشاره می‌کند.

سرعت، مقیاس و پیچیدگی که هوش مصنوعی فراهم می‌کند می‌تواند دفاع‌های سنتی را تحت فشار قرار دهد – تصور کنید هزاران تماس کلاهبرداری تولید شده توسط هوش مصنوعی یا ویدئوهای دیپ‌فیک که در یک روز امنیت یک شرکت را هدف قرار می‌دهند.

تهدیدات نوظهور: هوش مصنوعی برای تسهیل سرقت هویت، آزار و اذیت و تولید محتوای مضر مانند پورنوگرافی دیپ‌فیک بدون رضایت یا تبلیغات گروه‌های افراطی استفاده می‌شود.

با دسترسی بیشتر به ابزارهای هوش مصنوعی، موانع انجام این فعالیت‌های مخرب کاهش یافته و احتمال افزایش جرم‌های تقویت‌شده با هوش مصنوعی وجود دارد.

این امر نیازمند رویکردهای جدید در امنیت سایبری و اجرای قانون است، مانند سیستم‌های هوش مصنوعی که می‌توانند دیپ‌فیک‌ها یا رفتارهای غیرعادی را شناسایی کنند و چارچوب‌های قانونی به‌روزشده برای پاسخگو کردن مجرمان. به‌طور خلاصه، باید پیش‌بینی کنیم هر قابلیتی که هوش مصنوعی به نفعان می‌دهد، ممکن است به همان اندازه به مجرمان نیز داده شود – و برای آن آماده باشیم.

سوءاستفاده جنایی، کلاهبرداری و تهدیدات امنیتی در هوش مصنوعی
سوءاستفاده جنایی، کلاهبرداری و تهدیدات امنیتی در هوش مصنوعی

نظامی‌سازی و سلاح‌های خودمختار

شاید ترسناک‌ترین خطر هوش مصنوعی در زمینه جنگ و امنیت ملی ظهور می‌کند. هوش مصنوعی به سرعت در سیستم‌های نظامی ادغام می‌شود و چشم‌انداز سلاح‌های خودمختار («ربات‌های قاتل») و تصمیم‌گیری مبتنی بر هوش مصنوعی در نبرد را به وجود می‌آورد.

این فناوری‌ها می‌توانند سریع‌تر از هر انسان واکنش نشان دهند، اما حذف کنترل انسانی از استفاده از نیروی کشنده پرخطر است. خطر این وجود دارد که سلاح کنترل‌شده توسط هوش مصنوعی هدف اشتباهی را انتخاب کند یا درگیری‌ها را به‌صورت غیرمنتظره تشدید نماید.

نگرانی بین‌المللی: تسلیح هوش مصنوعی برای استفاده نظامی به‌عنوان تهدیدی رو به رشد توسط ناظران بین‌المللی شناخته شده است.

خطاهای انتخاب هدف

سلاح‌های هوش مصنوعی ممکن است غیرنظامیان را به‌اشتباه به‌عنوان مبارز شناسایی کنند

  • شناسایی مثبت کاذب
  • تلفات غیرنظامیان

تشدید درگیری

سیستم‌های خودمختار ممکن است وضعیت را فراتر از قصد انسانی تشدید کنند

  • چرخه‌های پاسخ سریع
  • تشدید کنترل‌نشده

اگر کشورها برای تجهیز زرادخانه‌های خود به سلاح‌های هوشمند رقابت کنند، ممکن است مسابقه تسلیحاتی بی‌ثبات‌کننده‌ای آغاز شود. علاوه بر این، هوش مصنوعی می‌تواند در جنگ سایبری برای حمله خودکار به زیرساخت‌های حیاتی یا پخش تبلیغات استفاده شود و مرز بین صلح و درگیری را مبهم کند.

توسعه هوش مصنوعی در جنگ، اگر در دست عده‌ای محدود متمرکز شود، ممکن است بدون نظر مردم بر آن‌ها تحمیل شود و امنیت و اخلاق جهانی را تضعیف کند.

— سازمان ملل متحد

سیستم‌های سلاح خودمختار همچنین معضلات حقوقی و اخلاقی ایجاد می‌کنند – اگر پهپاد هوش مصنوعی به اشتباه غیرنظامیان را بکشد، چه کسی مسئول است؟ چنین سیستم‌هایی چگونه با قوانین بین‌المللی بشردوستانه سازگارند؟

این پرسش‌های بی‌پاسخ منجر به درخواست‌هایی برای ممنوعیت یا تنظیم دقیق برخی سلاح‌های مجهز به هوش مصنوعی شده است. اطمینان از نظارت انسانی بر هر هوش مصنوعی که می‌تواند تصمیمات حیاتی بگیرد، به‌طور گسترده‌ای ضروری تلقی می‌شود. بدون آن، خطر نه تنها اشتباهات فاجعه‌بار در میدان جنگ بلکه فرسایش مسئولیت انسانی در جنگ است.

نظامی‌سازی و سلاح‌های خودمختار در هوش مصنوعی
نظامی‌سازی و سلاح‌های خودمختار در هوش مصنوعی

فقدان شفافیت و پاسخگویی

اکثر سیستم‌های پیشرفته هوش مصنوعی امروز به‌صورت «جعبه سیاه» عمل می‌کنند – منطق داخلی آن‌ها حتی برای سازندگانشان اغلب مبهم است. این فقدان شفافیت خطر ایجاد می‌کند که تصمیمات هوش مصنوعی قابل توضیح یا به چالش کشیدن نباشند، که در حوزه‌هایی مانند عدالت، مالی یا بهداشت و درمان که توضیح‌پذیری می‌تواند الزام قانونی یا اخلاقی باشد، مشکل جدی است.

اگر هوش مصنوعی به کسی وام ندهد، بیماری را تشخیص دهد یا تصمیم بگیرد چه کسی از زندان آزاد شود، طبیعی است که بخواهیم بدانیم چرا. با برخی مدل‌های هوش مصنوعی (به‌ویژه شبکه‌های عصبی پیچیده)، ارائه دلیل واضح دشوار است.

تصمیمات حقوقی

آزادی مشروط، صدور حکم و قضاوت‌های حقوقی توسط سیستم‌های هوش مصنوعی مبهم

خدمات مالی

تصویب وام و تصمیمات اعتباری بدون توضیحات روشن

بهداشت و درمان

تشخیص‌ها و توصیه‌های درمانی پزشکی از هوش مصنوعی غیرقابل توضیح

فقدان شفافیت می‌تواند امکان به چالش کشیدن مؤثر تصمیمات مبتنی بر نتایج تولید شده توسط سیستم‌های هوش مصنوعی را تضعیف کند و ممکن است حق به دادرسی عادلانه و جبران مؤثر را نقض نماید.

— یونسکو

به عبارت دیگر، اگر نه کاربران و نه ناظران نتوانند بفهمند هوش مصنوعی چگونه تصمیم می‌گیرد، تقریباً غیرممکن است کسی را برای اشتباهات یا تعصبات به وجود آمده پاسخگو دانست.

شکاف پاسخگویی: شرکت‌ها ممکن است با مقصر دانستن «الگوریتم» از مسئولیت فرار کنند و افراد آسیب‌دیده بدون راه‌حل باقی بمانند.

برای مقابله با این موضوع، کارشناسان از تکنیک‌های هوش مصنوعی قابل توضیح، ممیزی دقیق و الزامات قانونی که تصمیمات هوش مصنوعی به مرجع انسانی قابل ردیابی باشند، حمایت می‌کنند.

در واقع، دستورالعمل‌های اخلاقی جهانی تأکید دارند که باید «همیشه امکان نسبت دادن مسئولیت اخلاقی و قانونی» رفتار سیستم‌های هوش مصنوعی به یک شخص یا سازمان وجود داشته باشد. انسان‌ها باید در نهایت پاسخگو باقی بمانند و هوش مصنوعی باید در امور حساس به جای جایگزینی، به قضاوت انسانی کمک کند. در غیر این صورت، خطر ایجاد دنیایی است که تصمیمات مهم توسط ماشین‌های غیرقابل فهم گرفته می‌شوند که زمینه‌ساز بی‌عدالتی است.

فقدان شفافیت و پاسخگویی در استفاده از هوش مصنوعی در محیط کار
فقدان شفافیت و پاسخگویی در استفاده از هوش مصنوعی در محیط کار

تمرکز قدرت و نابرابری

انقلاب هوش مصنوعی به‌طور یکنواخت در سراسر جهان رخ نمی‌دهد – تعداد کمی از شرکت‌ها و کشورها توسعه هوش مصنوعی پیشرفته را در دست دارند که خود خطراتی به همراه دارد.

مدل‌های پیشرفته هوش مصنوعی به داده‌ها، استعداد و منابع محاسباتی عظیمی نیاز دارند که تنها غول‌های فناوری (و دولت‌های دارای بودجه کافی) در حال حاضر در اختیار دارند.

این امر منجر به زنجیره تأمین جهانی بسیار متمرکز و یکپارچه شده است که به نفع چند شرکت و کشور است.

— مجمع جهانی اقتصاد

انحصار داده‌ها

مجموعه داده‌های عظیم تحت کنترل تعداد کمی از نهادها

منابع محاسباتی

زیرساخت‌های گران‌قیمت که تنها در دسترس غول‌های فناوری است

تمرکز استعدادها

محققان برتر هوش مصنوعی در چند سازمان متمرکز شده‌اند

چنین تمرکز قدرت هوش مصنوعی می‌تواند به کنترل انحصاری بر فناوری‌های هوش مصنوعی منجر شود، رقابت و انتخاب مصرف‌کننده را محدود کند. همچنین خطر این وجود دارد که اولویت‌های آن چند شرکت یا کشور به گونه‌ای شکل گیرد که منافع عمومی گسترده‌تر را در نظر نگیرد.

هشدار سازمان ملل: خطر این وجود دارد که فناوری هوش مصنوعی بدون نظر مردم بر آن‌ها تحمیل شود، زمانی که توسعه محدود به چند قدرت بزرگ باشد.

این عدم تعادل می‌تواند نابرابری‌های جهانی را تشدید کند: کشورهای ثروتمند و شرکت‌ها با بهره‌گیری از هوش مصنوعی پیشرفت می‌کنند، در حالی که جوامع فقیرتر به ابزارهای جدید دسترسی ندارند و از دست دادن شغل را تجربه می‌کنند بدون اینکه از مزایای هوش مصنوعی بهره‌مند شوند.

علاوه بر این، صنعت متمرکز هوش مصنوعی ممکن است نوآوری را خفه کند (اگر تازه‌واردان نتوانند با منابع شرکت‌های بزرگ رقابت کنند) و خطرات امنیتی ایجاد نماید (اگر زیرساخت‌های حیاتی هوش مصنوعی در کنترل چند نهاد باشد، نقطه شکست یا دستکاری واحدی ایجاد می‌شود).

پرداختن به این خطر نیازمند همکاری بین‌المللی و احتمالاً مقررات جدید برای دموکراتیزه کردن توسعه هوش مصنوعی است – برای مثال، حمایت از تحقیقات باز، تضمین دسترسی عادلانه به داده‌ها و محاسبات، و تدوین سیاست‌هایی مانند قانون پیشنهادی هوش مصنوعی اتحادیه اروپا برای جلوگیری از سوءاستفاده توسط «نگهبانان هوش مصنوعی». چشم‌انداز هوش مصنوعی فراگیرتر به تضمین توزیع جهانی منافع هوش مصنوعی کمک می‌کند، نه افزایش شکاف بین دارندگان و ندارندگان فناوری.

تمرکز قدرت و نابرابری
تمرکز قدرت و نابرابری

تأثیرات زیست‌محیطی هوش مصنوعی

اغلب در بحث‌های مربوط به خطرات هوش مصنوعی، ردپای زیست‌محیطی آن نادیده گرفته می‌شود. توسعه هوش مصنوعی، به‌ویژه آموزش مدل‌های بزرگ یادگیری ماشین، مصرف برق و قدرت محاسباتی بسیار زیادی دارد.

مرکز داده‌هایی که مملو از هزاران سرور پرمصرف هستند برای پردازش حجم عظیم داده‌هایی که سیستم‌های هوش مصنوعی از آن‌ها یاد می‌گیرند، لازم است. این بدان معناست که هوش مصنوعی می‌تواند به‌طور غیرمستقیم به انتشار کربن و تغییرات اقلیمی کمک کند.

آمار هشداردهنده: گزارش اخیر یک سازمان ملل متحد نشان داد که انتشار کربن غیرمستقیم چهار شرکت پیشرو در فناوری هوش مصنوعی به‌طور متوسط ۱۵۰٪ از سال ۲۰۲۰ تا ۲۰۲۳ افزایش یافته است، عمدتاً به دلیل نیازهای انرژی مراکز داده هوش مصنوعی.
افزایش انتشار کربن (۲۰۲۰-۲۰۲۳) ۱۵۰٪

با افزایش سرمایه‌گذاری در هوش مصنوعی، انتظار می‌رود انتشار گازهای گلخانه‌ای ناشی از اجرای مدل‌های هوش مصنوعی به شدت افزایش یابد – گزارش پیش‌بینی کرده است که برترین سیستم‌های هوش مصنوعی می‌توانند سالانه بیش از ۱۰۰ میلیون تن دی‌اکسید کربن منتشر کنند که فشار زیادی بر زیرساخت‌های انرژی وارد می‌کند.

برای درک بهتر، مراکز داده‌ای که هوش مصنوعی را تغذیه می‌کنند، مصرف برق را «چهار برابر سریع‌تر از افزایش کلی مصرف برق» افزایش می‌دهند.

مصرف انرژی

مصرف برق عظیم برای آموزش و اجرای مدل‌های هوش مصنوعی

مصرف آب

مصرف قابل توجه آب برای خنک‌سازی مراکز داده

پسماند الکترونیکی

ارتقاء سخت‌افزار که منجر به تولید پسماند الکترونیکی می‌شود

علاوه بر انتشار کربن، هوش مصنوعی می‌تواند آب زیادی برای خنک‌سازی مصرف کند و با ارتقاء سریع سخت‌افزار، پسماند الکترونیکی تولید نماید. اگر کنترل نشود، تأثیرات زیست‌محیطی هوش مصنوعی می‌تواند تلاش‌های جهانی برای پایداری را تضعیف کند.

این خطر نیازمند ساخت هوش مصنوعی بهره‌ورتر در مصرف انرژی و استفاده از منابع انرژی پاک‌تر است. پژوهشگران در حال توسعه تکنیک‌های هوش مصنوعی سبز برای کاهش مصرف انرژی هستند و برخی شرکت‌ها متعهد شده‌اند هزینه‌های کربنی هوش مصنوعی را جبران کنند. با این حال، این موضوع همچنان یک نگرانی فوری است که شتاب به سوی هوش مصنوعی می‌تواند هزینه زیست‌محیطی سنگینی داشته باشد. تعادل بین پیشرفت فناوری و مسئولیت زیست‌محیطی چالشی است که جامعه باید هنگام ادغام هوش مصنوعی در همه جا مدیریت کند.

تأثیرات زیست‌محیطی هوش مصنوعی
تأثیرات زیست‌محیطی هوش مصنوعی

خطرات وجودی و بلندمدت

فراتر از خطرات فوری، برخی کارشناسان درباره خطرات فرضی و بلندمدت هوش مصنوعی هشدار می‌دهند – از جمله احتمال ظهور هوش مصنوعی پیشرفته‌ای که از کنترل انسان خارج شود. در حالی که سیستم‌های هوش مصنوعی امروز در قابلیت‌های خود محدود هستند، پژوهشگران فعالانه در حال کار روی هوش مصنوعی عمومی‌تر هستند که ممکن است در بسیاری از حوزه‌ها از انسان‌ها پیشی بگیرد.

این موضوع سوالات پیچیده‌ای مطرح می‌کند: اگر هوش مصنوعی بسیار هوشمندتر یا خودمختارتر شود، آیا ممکن است به گونه‌ای عمل کند که بقای بشریت را تهدید کند؟ اگرچه این موضوع شبیه داستان‌های علمی-تخیلی است، چهره‌های برجسته در جامعه فناوری نگرانی خود را درباره سناریوهای «هوش مصنوعی سرکش» ابراز کرده‌اند و دولت‌ها این بحث را جدی گرفته‌اند.

پاسخ دولت‌ها: در سال ۲۰۲۳، بریتانیا میزبان اجلاس جهانی ایمنی هوش مصنوعی بود تا به خطرات مرزهای هوش مصنوعی بپردازد و نگرانی نهادی جدی درباره ایمنی بلندمدت هوش مصنوعی نشان دهد.

کارشناسان دیدگاه‌های متفاوتی درباره خطر از دست دادن کنترل انسان بر هوش مصنوعی به گونه‌ای که منجر به پیامدهای فاجعه‌بار شود، دارند.

— گزارش ایمنی هوش مصنوعی بین‌المللی

اجماع علمی یکسان نیست – برخی معتقدند هوش مصنوعی فوق‌العاده هوشمند دهه‌ها فاصله دارد یا می‌توان آن را با ارزش‌های انسانی همسو نگه داشت، در حالی که برخی دیگر احتمال کمی اما غیرصفر برای پیامدهای فاجعه‌بار می‌بینند.

سناریوهای بالقوه خطر وجودی

  • هوش مصنوعی دنبال کردن اهداف ناسازگار با ارزش‌های انسانی
  • پیشرفت سریع و کنترل‌نشده قابلیت‌های هوش مصنوعی
  • از دست دادن اختیار انسانی در تصمیم‌گیری‌های حیاتی
  • سیستم‌های هوش مصنوعی بهینه‌سازی برای اهداف مضر

اقدامات ایمنی بلندمدت

  • پژوهش همسویی هوش مصنوعی برای تضمین اهداف سازگار
  • توافقات بین‌المللی درباره پژوهش‌های حساس هوش مصنوعی
  • حفظ نظارت انسانی با افزایش توانایی هوش مصنوعی
  • ایجاد چارچوب‌های حاکمیتی جهانی برای هوش مصنوعی

به طور خلاصه، پذیرفته شده است که خطر وجودی هوش مصنوعی، هرچند دور، نمی‌تواند کاملاً نادیده گرفته شود. چنین نتیجه‌ای ممکن است شامل هوش مصنوعی‌ای باشد که اهداف خود را به زیان رفاه انسان دنبال می‌کند (مثال کلاسیک هوش مصنوعی‌ای که اگر نادرست برنامه‌ریزی شود، تصمیم می‌گیرد کاری مضر در مقیاس بزرگ انجام دهد زیرا فاقد عقل سلیم یا محدودیت‌های اخلاقی است).

در حالی که هیچ هوش مصنوعی امروز به چنین سطحی از اختیار نرسیده است، سرعت پیشرفت هوش مصنوعی سریع و غیرقابل پیش‌بینی است که خود یک عامل خطر است.

آماده‌سازی برای خطرات بلندمدت به معنای سرمایه‌گذاری در پژوهش همسویی هوش مصنوعی (اطمینان از سازگاری اهداف هوش مصنوعی با ارزش‌های انسانی)، ایجاد توافقات بین‌المللی درباره پژوهش‌های حساس هوش مصنوعی (مانند معاهدات تسلیحات هسته‌ای یا بیولوژیکی) و حفظ نظارت انسانی با افزایش توانایی سیستم‌های هوش مصنوعی است.

آینده هوش مصنوعی وعده‌های عظیمی دارد، اما همچنین عدم قطعیت – و خردمندی حکم می‌کند که حتی خطرات کم‌احتمال و با تأثیر بالا را در برنامه‌ریزی بلندمدت خود در نظر بگیریم.

خطرات وجودی و بلندمدت در هوش مصنوعی
خطرات وجودی و بلندمدت در هوش مصنوعی

هدایت مسئولانه آینده هوش مصنوعی

هوش مصنوعی اغلب به یک موتور قدرتمند تشبیه می‌شود که می‌تواند بشریت را به جلو براند – اما بدون ترمز و فرمان، آن موتور می‌تواند از مسیر منحرف شود. همان‌طور که دیدیم، خطرات استفاده از هوش مصنوعی چندوجهی است: از مسائل فوری مانند الگوریتم‌های مغرضانه، اخبار جعلی، تجاوز به حریم خصوصی و ناآرامی‌های شغلی گرفته تا چالش‌های گسترده‌تر اجتماعی مانند تهدیدات امنیتی، تصمیم‌گیری «جعبه سیاه»، انحصارهای فناوری بزرگ، فشارهای زیست‌محیطی و حتی سایه دوردست از دست دادن کنترل به هوش مصنوعی فوق‌العاده هوشمند.

نکته مهم: این خطرات به معنای توقف توسعه هوش مصنوعی نیست؛ بلکه نیاز فوری به حاکمیت مسئولانه هوش مصنوعی و رعایت اصول اخلاقی را برجسته می‌کند.

دولت‌ها، سازمان‌های بین‌المللی، رهبران صنعت و پژوهشگران به طور فزاینده‌ای برای پرداختن به این نگرانی‌ها همکاری می‌کنند – برای مثال، از طریق چارچوب‌هایی مانند:

  • چارچوب مدیریت ریسک هوش مصنوعی NIST آمریکا (برای افزایش اعتماد به هوش مصنوعی)
  • توصیه‌های جهانی اخلاق هوش مصنوعی یونسکو
  • قانون هوش مصنوعی اتحادیه اروپا

این تلاش‌ها هدف دارند تا مزایای هوش مصنوعی را به حداکثر و معایب آن را به حداقل برسانند و اطمینان دهند که هوش مصنوعی در خدمت بشریت است و نه بالعکس.

مسیر پیش رو

درک خطرات هوش مصنوعی اولین گام برای مدیریت آن‌هاست. با آگاه ماندن و مشارکت در نحوه توسعه و استفاده از هوش مصنوعی، می‌توانیم این فناوری تحول‌آفرین را به سمت مسیر ایمن، عادلانه و سودمند برای همه هدایت کنیم.

مطالب مرتبط بیشتر را کاوش کنید
96 مقالات
رزی ها نویسنده‌ای در Inviai است که تخصصش در به اشتراک‌گذاری دانش و راهکارهای هوش مصنوعی می‌باشد. با تجربه‌ای گسترده در پژوهش و کاربرد هوش مصنوعی در حوزه‌های مختلفی مانند کسب‌وکار، تولید محتوا و اتوماسیون، رزی ها مقالاتی ساده، کاربردی و الهام‌بخش ارائه می‌دهد. مأموریت رزی ها کمک به افراد برای بهره‌برداری مؤثر از هوش مصنوعی به منظور افزایش بهره‌وری و گسترش ظرفیت‌های خلاقیت است.
جستجو