هوش مصنوعی (AI) اکنون در همه‌چیز نفوذ کرده است؛ از دستیارهای گوشی‌های هوشمند و فیدهای شبکه‌های اجتماعی گرفته تا حوزه‌های بهداشت و درمان و حمل‌ونقل. این فناوری‌ها مزایای بی‌سابقه‌ای به همراه دارند، اما در عین حال با خطرات و چالش‌های قابل توجهی نیز همراه هستند.

کارشناسان و نهادهای بین‌المللی هشدار می‌دهند که بدون چارچوب‌های اخلاقی مناسب، هوش مصنوعی می‌تواند سوگیری‌ها و تبعیض‌های دنیای واقعی را بازتولید کند، به تخریب محیط زیست کمک کند، حقوق بشر را تهدید نماید و نابرابری‌های موجود را تشدید کند.

در این مقاله، با INVIAI به بررسی خطرات استفاده از هوش مصنوعی در تمامی حوزه‌ها و انواع هوش مصنوعی – از چت‌بات‌ها و الگوریتم‌ها تا ربات‌ها – بر اساس دیدگاه‌های منابع رسمی و بین‌المللی می‌پردازیم.

سوگیری و تبعیض در سیستم‌های هوش مصنوعی

یکی از خطرات اصلی هوش مصنوعی، تثبیت سوگیری و تبعیض ناعادلانه است. مدل‌های هوش مصنوعی از داده‌هایی یاد می‌گیرند که ممکن است بازتاب‌دهنده تعصبات یا نابرابری‌های تاریخی باشند؛ در نتیجه، یک سیستم هوش مصنوعی ممکن است افراد را بر اساس نژاد، جنسیت یا ویژگی‌های دیگر به گونه‌ای متفاوت و ناعادلانه رفتار کند که بی‌عدالتی را تداوم بخشد.

برای مثال، «هوش مصنوعی چندمنظوره معیوب می‌تواند از طریق تصمیمات مغرضانه نسبت به ویژگی‌های محافظت‌شده مانند نژاد، جنسیت، فرهنگ، سن و معلولیت آسیب برساند»، طبق گزارشی بین‌المللی درباره ایمنی هوش مصنوعی.

الگوریتم‌های مغرضانه که در استخدام، اعطای وام یا پلیس‌کاری به کار می‌روند، قبلاً منجر به نتایجی نابرابر شده‌اند که گروه‌های خاصی را به‌طور ناعادلانه‌ای متضرر کرده‌اند. نهادهای جهانی مانند یونسکو هشدار می‌دهند که بدون اقدامات عدالت‌محور، هوش مصنوعی خطر «بازتولید سوگیری‌ها و تبعیض‌های دنیای واقعی، تشدید شکاف‌ها و تهدید حقوق و آزادی‌های بنیادین بشر» را دارد. اطمینان از آموزش سیستم‌های هوش مصنوعی با داده‌های متنوع و نماینده و بررسی آن‌ها برای شناسایی سوگیری، برای جلوگیری از تبعیض خودکار ضروری است.

سوگیری و تبعیض در سیستم‌های هوش مصنوعی

خطرات اطلاعات نادرست و دیپ‌فیک

توانایی هوش مصنوعی در تولید متن، تصویر و ویدئوهای بسیار واقعی، نگرانی‌هایی درباره سیل اطلاعات نادرست ایجاد کرده است. هوش مصنوعی مولد می‌تواند مقالات خبری جعلی، تصاویر ساختگی یا ویدئوهای دیپ‌فیک تولید کند که تشخیص آن‌ها از واقعیت دشوار است.

گزارش ریسک‌های جهانی ۲۰۲۴ مجمع جهانی اقتصاد، «اطلاعات دستکاری‌شده و جعلی» را به عنوان شدیدترین ریسک جهانی کوتاه‌مدت معرفی کرده و اشاره می‌کند که هوش مصنوعی «اطلاعات دستکاری‌شده و تحریف‌شده را تشدید می‌کند که می‌تواند جوامع را بی‌ثبات کند.»

در واقع، اطلاعات نادرست و گمراه‌کننده‌ای که توسط هوش مصنوعی تقویت می‌شوند، یکی از «بزرگ‌ترین چالش‌های تاریخ دموکراسی» به شمار می‌روند – به‌ویژه با توجه به میلیاردها نفری که در انتخابات پیش رو رأی خواهند داد. رسانه‌های مصنوعی مانند ویدئوهای دیپ‌فیک و صداهای کلون‌شده توسط هوش مصنوعی می‌توانند به‌عنوان ابزار تبلیغاتی، جعل هویت شخصیت‌های عمومی یا کلاهبرداری مورد استفاده قرار گیرند.

مقامات هشدار می‌دهند که افراد مخرب می‌توانند از هوش مصنوعی برای کمپین‌های گسترده اطلاعات نادرست بهره ببرند و این امر باعث می‌شود شبکه‌های اجتماعی با محتوای جعلی پر شود و آشوب ایجاد گردد. این خطر منجر به محیط اطلاعاتی بدبینانه‌ای می‌شود که شهروندان نمی‌توانند به آنچه می‌بینند یا می‌شنوند اعتماد کنند و این موضوع گفت‌وگوی عمومی و دموکراسی را تضعیف می‌کند.

خطرات اطلاعات نادرست و دیپ‌فیک در هوش مصنوعی

تهدیدهای حریم خصوصی و نظارت گسترده

استفاده گسترده از هوش مصنوعی نگرانی‌های جدی درباره حریم خصوصی ایجاد کرده است. سیستم‌های هوش مصنوعی اغلب به حجم عظیمی از داده‌های شخصی – از چهره و صدا تا عادات خرید و موقعیت مکانی – برای عملکرد مؤثر نیاز دارند. بدون حفاظت‌های قوی، این داده‌ها می‌توانند سوءاستفاده یا بهره‌برداری شوند.

برای مثال، فناوری تشخیص چهره و الگوریتم‌های پیش‌بینی می‌توانند نظارت فراگیر را ممکن سازند، به گونه‌ای که هر حرکت افراد رصد شود یا رفتار آن‌ها بدون رضایت ارزیابی گردد. توصیه‌های اخلاقی جهانی یونسکو به صراحت هشدار می‌دهد که «سیستم‌های هوش مصنوعی نباید برای امتیازدهی اجتماعی یا نظارت گسترده استفاده شوند.» چنین کاربردهایی به طور گسترده به عنوان خطرات غیرقابل قبول شناخته می‌شوند.

علاوه بر این، تحلیل داده‌های شخصی توسط هوش مصنوعی می‌تواند جزئیات خصوصی زندگی ما را – از وضعیت سلامت تا باورهای سیاسی – آشکار کند و تهدیدی برای حق حریم خصوصی باشد. سازمان‌های حفاظت از داده تأکید دارند که حریم خصوصی «حق اساسی برای حفظ کرامت، خودمختاری و اختیار انسان است» که باید در تمام چرخه عمر سیستم‌های هوش مصنوعی رعایت شود.

اگر توسعه هوش مصنوعی از مقررات حریم خصوصی پیشی بگیرد، افراد ممکن است کنترل اطلاعات خود را از دست بدهند. جامعه باید اطمینان حاصل کند که حاکمیت داده قوی، مکانیزم‌های رضایت و تکنیک‌های حفظ حریم خصوصی به کار گرفته شده‌اند تا فناوری‌های هوش مصنوعی به ابزارهای نظارت بی‌حد و حصر تبدیل نشوند.

تهدیدهای حریم خصوصی و نظارت گسترده

شکست‌های ایمنی و آسیب‌های ناخواسته

در حالی که هوش مصنوعی می‌تواند تصمیمات و وظایف فیزیکی را با کارایی فراتر از توان انسان‌ها خودکار کند، ممکن است به‌طور غیرقابل پیش‌بینی شکست بخورد و به آسیب‌های واقعی منجر شود. ما مسئولیت‌های حیاتی بیشتری را به هوش مصنوعی می‌سپاریم – مانند رانندگی خودروها، تشخیص بیماری‌ها یا مدیریت شبکه‌های برق – اما این سیستم‌ها بی‌نقص نیستند.

خطاها، داده‌های آموزشی ناقص یا شرایط غیرمنتظره می‌توانند باعث شوند هوش مصنوعی اشتباهات خطرناکی مرتکب شود. مثلاً هوش مصنوعی یک خودرو خودران ممکن است یک عابر پیاده را اشتباه تشخیص دهد یا هوش مصنوعی پزشکی درمان نادرستی را پیشنهاد کند که پیامدهای مرگباری داشته باشد.

با توجه به این موضوع، دستورالعمل‌های بین‌المللی تأکید می‌کنند که آسیب‌های ناخواسته و خطرات ایمنی هوش مصنوعی باید پیش‌بینی و پیشگیری شوند: «آسیب‌های ناخواسته (خطرات ایمنی) و آسیب‌پذیری‌ها در برابر حملات (خطرات امنیتی) باید در طول چرخه عمر سیستم‌های هوش مصنوعی شناسایی و برطرف شوند تا ایمنی و امنیت انسان، محیط زیست و اکوسیستم تضمین گردد.»

به عبارت دیگر، سیستم‌های هوش مصنوعی باید به‌طور دقیق آزمایش، نظارت و با مکانیزم‌های ایمنی ساخته شوند تا احتمال نقص کاهش یابد. اعتماد بیش از حد به هوش مصنوعی نیز می‌تواند خطرناک باشد – اگر انسان‌ها بدون تردید به تصمیمات خودکار اعتماد کنند، ممکن است هنگام بروز مشکل به موقع مداخله نکنند.

بنابراین، تضمین نظارت انسانی حیاتی است. در کاربردهای حساس (مانند بهداشت و درمان یا حمل‌ونقل)، تصمیمات نهایی باید تحت قضاوت انسان باقی بمانند و همان‌طور که یونسکو اشاره می‌کند، «تصمیمات مرگ و زندگی نباید به سیستم‌های هوش مصنوعی واگذار شود.» حفظ ایمنی و قابلیت اطمینان در هوش مصنوعی چالشی مستمر است که نیازمند طراحی دقیق و فرهنگ مسئولیت‌پذیری در توسعه‌دهندگان است.

شکست‌های ایمنی و آسیب‌های ناخواسته در هوش مصنوعی

جابه‌جایی شغلی و اختلالات اقتصادی

تأثیر تحول‌آفرین هوش مصنوعی بر اقتصاد، شمشیری دو لبه است. از یک سو، هوش مصنوعی می‌تواند بهره‌وری را افزایش داده و صنایع کاملاً جدیدی ایجاد کند؛ از سوی دیگر، خطر جابه‌جایی میلیون‌ها کارگر از طریق اتوماسیون را به همراه دارد.

بسیاری از مشاغل – به‌ویژه آن‌هایی که شامل وظایف تکراری، روتین یا داده‌های قابل تحلیل آسان هستند – در معرض تصاحب توسط الگوریتم‌ها و ربات‌های هوش مصنوعی قرار دارند. پیش‌بینی‌های جهانی هشداردهنده است: برای مثال، مجمع جهانی اقتصاد پیش‌بینی می‌کند که «۹۲ میلیون شغل تا سال ۲۰۳۰ به دلیل هوش مصنوعی و فناوری‌های مرتبط جابه‌جا خواهند شد.»

اگرچه اقتصاد ممکن است نقش‌های جدیدی ایجاد کند (که احتمالاً در بلندمدت حتی بیشتر از مشاغل از دست رفته خواهد بود)، گذار برای بسیاری دردناک خواهد بود. مشاغل جدید اغلب نیازمند مهارت‌های متفاوت و پیشرفته‌تر هستند یا در مراکز فناوری خاصی متمرکز می‌شوند، به این معنی که بسیاری از کارگران جابه‌جا شده ممکن است در یافتن جایگاه جدید دچار مشکل شوند.

این عدم تطابق بین مهارت‌های کارگران و مهارت‌های مورد نیاز نقش‌های جدید مبتنی بر هوش مصنوعی می‌تواند منجر به افزایش بیکاری و نابرابری شود اگر به آن پرداخته نشود. در واقع، سیاست‌گذاران و پژوهشگران هشدار می‌دهند که پیشرفت سریع هوش مصنوعی می‌تواند «اختلال در بازار کار و نابرابری‌های قدرت اقتصادی» را در مقیاس سیستماتیک به همراه داشته باشد.

برخی گروه‌ها ممکن است بیشتر آسیب ببینند – برای مثال، برخی مطالعات نشان می‌دهد سهم بیشتری از مشاغل زنان یا کارگران در کشورهای در حال توسعه در معرض خطر بالای اتوماسیون قرار دارند. بدون اقدامات پیشگیرانه (مانند برنامه‌های بازآموزی، آموزش مهارت‌های هوش مصنوعی و شبکه‌های ایمنی اجتماعی)، هوش مصنوعی می‌تواند شکاف‌های اجتماعی-اقتصادی را گسترش دهد و اقتصادی مبتنی بر هوش مصنوعی ایجاد کند که در آن صاحبان فناوری بیشترین بهره را می‌برند.

آماده‌سازی نیروی کار برای تأثیر هوش مصنوعی حیاتی است تا اطمینان حاصل شود مزایای اتوماسیون به طور گسترده تقسیم می‌شود و از ناآرامی‌های اجتماعی ناشی از از دست دادن گسترده شغل جلوگیری شود.

جابه‌جایی شغلی و اختلالات اقتصادی در هوش مصنوعی

سوءاستفاده‌های جنایی، کلاهبرداری و تهدیدات امنیتی

هوش مصنوعی ابزاری قدرتمند است که می‌تواند به همان اندازه برای اهداف نیکوکارانه و اهداف شوم به کار رود. جرم‌کاران سایبری و دیگر بازیگران مخرب در حال حاضر از هوش مصنوعی برای تقویت حملات خود بهره می‌برند.

برای مثال، هوش مصنوعی می‌تواند ایمیل‌ها یا پیام‌های صوتی فیشینگ بسیار شخصی‌سازی شده (با کلون کردن صدای فرد) تولید کند تا افراد را فریب دهد اطلاعات حساس را فاش کنند یا پول ارسال نمایند. همچنین می‌تواند برای خودکارسازی هک با یافتن آسیب‌پذیری‌های نرم‌افزاری در مقیاس وسیع یا توسعه بدافزارهای تطبیق‌پذیر برای فرار از شناسایی استفاده شود.

مرکز ایمنی هوش مصنوعی سوءاستفاده‌های مخرب از هوش مصنوعی را به عنوان نگرانی اصلی معرفی می‌کند و سناریوهایی مانند استفاده مجرمان از سیستم‌های هوش مصنوعی برای انجام کلاهبرداری‌ها و حملات سایبری گسترده را مطرح می‌سازد. در واقع، گزارشی که توسط دولت بریتانیا سفارش داده شده به صراحت هشدار داده است که «افراد مخرب می‌توانند از هوش مصنوعی برای عملیات گسترده اطلاعات نادرست، تأثیرگذاری، کلاهبرداری و تقلب استفاده کنند.»

سرعت، مقیاس و پیچیدگی که هوش مصنوعی فراهم می‌کند می‌تواند دفاع‌های سنتی را تحت فشار قرار دهد – تصور کنید هزاران تماس کلاهبرداری تولید شده توسط هوش مصنوعی یا ویدئوهای دیپ‌فیک که در یک روز امنیت یک شرکت را هدف قرار می‌دهند.

فراتر از جرایم مالی، خطر استفاده از هوش مصنوعی برای تسهیل سرقت هویت، آزار و اذیت یا تولید محتوای مضر (مانند پورنوگرافی دیپ‌فیک بدون رضایت یا تبلیغات گروه‌های افراطی) نیز وجود دارد. با دسترسی بیشتر به ابزارهای هوش مصنوعی، موانع انجام این فعالیت‌های مخرب کاهش یافته و احتمال افزایش جرایم تقویت‌شده با هوش مصنوعی وجود دارد.

این موضوع نیازمند رویکردهای جدید در امنیت سایبری و اجرای قانون است، مانند سیستم‌های هوش مصنوعی که می‌توانند دیپ‌فیک‌ها یا رفتارهای غیرعادی را شناسایی کنند و چارچوب‌های قانونی به‌روزشده برای پاسخگو کردن مجرمان. به طور خلاصه، باید انتظار داشت هر قابلیتی که هوش مصنوعی به نفعان می‌دهد، ممکن است به مجرمان نیز داده شود – و باید برای آن آماده بود.

سوءاستفاده‌های جنایی، کلاهبرداری و تهدیدات امنیتی در هوش مصنوعی

نظامی‌سازی و سلاح‌های خودمختار

شاید ترسناک‌ترین خطر هوش مصنوعی در زمینه جنگ و امنیت ملی ظهور کند. هوش مصنوعی به سرعت در سیستم‌های نظامی ادغام می‌شود و چشم‌انداز سلاح‌های خودمختار («ربات‌های قاتل») و تصمیم‌گیری مبتنی بر هوش مصنوعی در میدان نبرد را به وجود می‌آورد.

این فناوری‌ها می‌توانند سریع‌تر از هر انسان واکنش نشان دهند، اما حذف کنترل انسانی از استفاده از نیروی کشنده پرخطر است. خطر این وجود دارد که سلاح کنترل‌شده توسط هوش مصنوعی هدف اشتباهی را انتخاب کند یا درگیری‌ها را به شکل غیرمنتظره‌ای تشدید نماید. ناظران بین‌المللی هشدار می‌دهند که «نظامی‌سازی هوش مصنوعی» تهدیدی رو به رشد است.

اگر کشورها در رقابت برای تجهیز زرادخانه‌های خود به سلاح‌های هوشمند باشند، ممکن است مسابقه تسلیحاتی بی‌ثبات‌کننده‌ای آغاز شود. علاوه بر این، هوش مصنوعی می‌تواند در جنگ سایبری برای حمله خودکار به زیرساخت‌های حیاتی یا انتشار تبلیغات استفاده شود و مرز بین صلح و درگیری را مبهم سازد.

سازمان ملل نگرانی خود را اعلام کرده است که توسعه هوش مصنوعی در جنگ، اگر در دست عده‌ای محدود باقی بماند، «ممکن است بر مردم تحمیل شود بدون اینکه آن‌ها در نحوه استفاده از آن نقشی داشته باشند» و امنیت و اخلاق جهانی را تضعیف کند.

سیستم‌های سلاح خودمختار همچنین چالش‌های حقوقی و اخلاقی ایجاد می‌کنند – چه کسی مسئول است اگر پهپاد هوش مصنوعی به اشتباه غیرنظامیان را بکشد؟ این سیستم‌ها چگونه با قوانین بین‌المللی بشردوستانه سازگار می‌شوند؟

این سوالات بی‌پاسخ منجر به درخواست‌هایی برای ممنوعیت یا تنظیم سخت‌گیرانه برخی سلاح‌های مجهز به هوش مصنوعی شده است. اطمینان از نظارت انسانی بر هر هوش مصنوعی که می‌تواند تصمیمات مرگ و زندگی بگیرد، به طور گسترده‌ای ضروری تلقی می‌شود. بدون این نظارت، خطر نه تنها اشتباهات فاجعه‌بار در میدان جنگ بلکه تضعیف مسئولیت انسانی در جنگ است.

نظامی‌سازی و سلاح‌های خودمختار در هوش مصنوعی

کمبود شفافیت و پاسخگویی

اکثر سیستم‌های پیشرفته هوش مصنوعی امروزی به صورت «جعبه سیاه» عمل می‌کنند – منطق داخلی آن‌ها حتی برای سازندگانشان نیز اغلب مبهم است. این کمبود شفافیت خطر این را ایجاد می‌کند که تصمیمات هوش مصنوعی قابل توضیح یا به چالش کشیدن نباشند، که در حوزه‌هایی مانند عدالت، امور مالی یا بهداشت و درمان که توضیح‌پذیری می‌تواند الزام قانونی یا اخلاقی باشد، مشکل جدی است.

اگر هوش مصنوعی به کسی وام ندهد، بیماری را تشخیص دهد یا تصمیم بگیرد چه کسی از زندان آزاد شود، طبیعی است که بخواهیم بدانیم چرا. با برخی مدل‌های هوش مصنوعی (به‌ویژه شبکه‌های عصبی پیچیده)، ارائه دلیل واضح دشوار است.

«کمبود شفافیت» می‌تواند اعتماد را تضعیف کند و «ممکن است امکان به چالش کشیدن مؤثر تصمیمات مبتنی بر نتایج سیستم‌های هوش مصنوعی را نیز کاهش دهد»، همان‌طور که یونسکو اشاره می‌کند، «و ممکن است حق به دادرسی عادلانه و جبران مؤثر را نقض کند.»

به عبارت دیگر، اگر نه کاربران و نه ناظران نتوانند بفهمند هوش مصنوعی چگونه تصمیم می‌گیرد، تقریباً غیرممکن است کسی را مسئول اشتباهات یا سوگیری‌های به وجود آمده دانست.

این شکاف پاسخگویی یک خطر بزرگ است: شرکت‌ها ممکن است با مقصر دانستن «الگوریتم» از مسئولیت فرار کنند و افراد آسیب‌دیده ممکن است راه‌حلی نداشته باشند. برای مقابله با این موضوع، کارشناسان از تکنیک‌های هوش مصنوعی قابل توضیح، ممیزی دقیق و الزامات قانونی که تصمیمات هوش مصنوعی به مرجع انسانی قابل ردیابی باشند، حمایت می‌کنند.

در واقع، دستورالعمل‌های اخلاقی جهانی تأکید دارند که باید «همیشه امکان نسبت دادن مسئولیت اخلاقی و قانونی» رفتار سیستم‌های هوش مصنوعی به یک شخص یا سازمان وجود داشته باشد. انسان‌ها باید در نهایت پاسخگو باقی بمانند و هوش مصنوعی باید در امور حساس کمک‌کننده باشد نه جایگزین قضاوت انسانی. در غیر این صورت، خطر ایجاد دنیایی است که در آن تصمیمات مهم توسط ماشین‌های غیرقابل فهم گرفته می‌شود که زمینه‌ساز بی‌عدالتی است.

کمبود شفافیت و پاسخگویی در استفاده از هوش مصنوعی در محیط کار

تمرکز قدرت و نابرابری

انقلاب هوش مصنوعی به طور یکنواخت در سراسر جهان رخ نمی‌دهد – تعداد کمی از شرکت‌ها و کشورها توسعه هوش مصنوعی پیشرفته را در دست دارند که خود خطراتی به همراه دارد.

مدل‌های پیشرفته هوش مصنوعی به داده‌ها، استعدادها و منابع محاسباتی عظیمی نیاز دارند که تنها غول‌های فناوری (و دولت‌های دارای بودجه کافی) در حال حاضر در اختیار دارند. این منجر به «زنجیره تأمین بسیار متمرکز، یگانه و جهانی شده است که به نفع چند شرکت و کشور است»، طبق گزارش مجمع جهانی اقتصاد.

چنین تمرکز قدرت هوش مصنوعی می‌تواند به کنترل انحصاری فناوری‌های هوش مصنوعی منجر شود، رقابت و انتخاب مصرف‌کننده را محدود کند. همچنین خطر این وجود دارد که اولویت‌های آن چند شرکت یا کشور، هوش مصنوعی را به گونه‌ای شکل دهد که منافع عمومی گسترده‌تر را در نظر نگیرد.

سازمان ملل هشدار داده است که «خطر تحمیل فناوری [هوش مصنوعی] بر مردم بدون اینکه آن‌ها در نحوه استفاده از آن نقشی داشته باشند» زمانی که توسعه محدود به عده‌ای قدرتمند باشد، وجود دارد.

این عدم تعادل می‌تواند نابرابری‌های جهانی را تشدید کند: کشورهای ثروتمند و شرکت‌ها با بهره‌گیری از هوش مصنوعی پیشرفت می‌کنند، در حالی که جوامع فقیرتر به ابزارهای جدید دسترسی ندارند و از مزایای هوش مصنوعی بهره‌مند نمی‌شوند و در عین حال با از دست دادن شغل مواجه‌اند. علاوه بر این، صنعت متمرکز هوش مصنوعی ممکن است نوآوری را خفه کند (اگر تازه‌واردان نتوانند با منابع شرکت‌های بزرگ رقابت کنند) و خطرات امنیتی ایجاد نماید (اگر زیرساخت‌های حیاتی هوش مصنوعی در کنترل چند نهاد باشد، نقطه‌ای آسیب‌پذیر یا قابل دستکاری ایجاد می‌شود).

پرداختن به این خطر نیازمند همکاری بین‌المللی و احتمالاً مقررات جدید برای دموکراتیزه کردن توسعه هوش مصنوعی است – برای مثال، حمایت از تحقیقات باز، تضمین دسترسی عادلانه به داده‌ها و منابع محاسباتی و تدوین سیاست‌هایی مانند قانون پیشنهادی هوش مصنوعی اتحادیه اروپا برای جلوگیری از سوءاستفاده توسط «نگهبانان هوش مصنوعی». چشم‌انداز هوش مصنوعی فراگیرتر به توزیع عادلانه مزایای هوش مصنوعی در سطح جهانی کمک خواهد کرد و شکاف بین دارندگان و ندارندگان فناوری را کاهش می‌دهد.

تمرکز قدرت و نابرابری

تأثیرات زیست‌محیطی هوش مصنوعی

یکی از جنبه‌های کمتر مورد توجه در بحث خطرات هوش مصنوعی، ردپای زیست‌محیطی آن است. توسعه هوش مصنوعی، به ویژه آموزش مدل‌های بزرگ یادگیری ماشین، مصرف بسیار بالایی از برق و قدرت محاسباتی دارد.

مرکز داده‌هایی که مملو از هزاران سرور پرمصرف هستند، برای پردازش حجم عظیم داده‌هایی که سیستم‌های هوش مصنوعی از آن‌ها یاد می‌گیرند، لازم است. این بدان معناست که هوش مصنوعی به طور غیرمستقیم به انتشار کربن و تغییرات اقلیمی کمک می‌کند.

گزارش اخیر یک سازمان ملل نشان داد که انتشار کربن غیرمستقیم چهار شرکت پیشرو در حوزه فناوری هوش مصنوعی به طور متوسط ۱۵۰٪ از سال ۲۰۲۰ تا ۲۰۲۳ افزایش یافته است که عمدتاً به دلیل نیازهای انرژی مراکز داده هوش مصنوعی است.

با افزایش سرمایه‌گذاری در هوش مصنوعی، انتظار می‌رود انتشار گازهای گلخانه‌ای ناشی از اجرای مدل‌های هوش مصنوعی به شدت افزایش یابد – این گزارش پیش‌بینی کرده است که برترین سیستم‌های هوش مصنوعی می‌توانند سالانه بیش از ۱۰۰ میلیون تن دی‌اکسید کربن منتشر کنند که فشار قابل توجهی بر زیرساخت‌های انرژی وارد می‌کند.

برای درک بهتر، مراکز داده‌ای که هوش مصنوعی را تغذیه می‌کنند، مصرف برق را «چهار برابر سریع‌تر از افزایش کلی مصرف برق» افزایش می‌دهند.

علاوه بر انتشار کربن، هوش مصنوعی می‌تواند برای خنک‌سازی آب زیادی مصرف کند و زباله‌های الکترونیکی تولید نماید زیرا سخت‌افزار به سرعت به‌روزرسانی می‌شود. اگر کنترل نشود، تأثیرات زیست‌محیطی هوش مصنوعی می‌تواند تلاش‌های جهانی برای پایداری را تضعیف کند.

این خطر نیازمند بهینه‌سازی مصرف انرژی هوش مصنوعی و استفاده از منابع انرژی پاک‌تر است. پژوهشگران در حال توسعه تکنیک‌های هوش مصنوعی سبز برای کاهش مصرف انرژی هستند و برخی شرکت‌ها متعهد شده‌اند هزینه‌های کربنی هوش مصنوعی را جبران کنند. با این حال، این موضوع همچنان نگرانی جدی است که شتاب به سوی هوش مصنوعی می‌تواند هزینه زیست‌محیطی سنگینی داشته باشد. تعادل بین پیشرفت فناوری و مسئولیت زیست‌محیطی چالشی است که جامعه باید در مسیر ادغام هوش مصنوعی در همه‌جا به آن توجه کند.

تأثیرات زیست‌محیطی هوش مصنوعی

خطرات وجودی و بلندمدت

فراتر از خطرات فوری، برخی کارشناسان درباره خطرات فرضی و بلندمدت هوش مصنوعی هشدار می‌دهند – از جمله احتمال ظهور هوش مصنوعی پیشرفته‌ای که از کنترل انسان خارج شود. در حالی که سیستم‌های هوش مصنوعی امروزی در قابلیت‌های خود محدود هستند، پژوهشگران به طور فعال در حال کار روی هوش مصنوعی عمومی‌تر هستند که ممکن است در بسیاری از حوزه‌ها از انسان‌ها پیشی بگیرد.

این موضوع سوالات پیچیده‌ای را مطرح می‌کند: اگر هوش مصنوعی بسیار هوشمندتر یا خودمختارتر شود، آیا ممکن است به گونه‌ای عمل کند که بقای بشریت را تهدید کند؟ اگرچه این موضوع شبیه داستان‌های علمی-تخیلی به نظر می‌رسد، چهره‌های برجسته در جامعه فناوری نگرانی خود را درباره سناریوهای «هوش مصنوعی سرکش» ابراز کرده‌اند و دولت‌ها این بحث را جدی گرفته‌اند.

در سال ۲۰۲۳، بریتانیا میزبان اجلاس جهانی ایمنی هوش مصنوعی بود تا به خطرات پیشرفته هوش مصنوعی بپردازد. اجماع علمی یکسان نیست – برخی معتقدند هوش مصنوعی فوق‌العاده هوشمند هنوز دهه‌ها فاصله دارد یا می‌توان آن را با ارزش‌های انسانی همسو نگه داشت، در حالی که برخی دیگر احتمال کمی اما غیرصفر برای پیامدهای فاجعه‌بار قائل‌اند.

گزارش اخیر بین‌المللی ایمنی هوش مصنوعی اشاره کرده است که «کارشناسان دیدگاه‌های متفاوتی درباره خطر از دست دادن کنترل بشر بر هوش مصنوعی به گونه‌ای که منجر به پیامدهای فاجعه‌بار شود، دارند.»

به طور خلاصه، اذعان شده است که خطر وجودی هوش مصنوعی، هرچند دور از ذهن، نمی‌تواند به طور کامل نادیده گرفته شود. چنین نتیجه‌ای ممکن است شامل هوش مصنوعی‌ای باشد که اهداف خود را به ضرر رفاه انسان دنبال کند (مثال کلاسیک، هوش مصنوعی‌ای است که اگر به اشتباه برنامه‌ریزی شود، به دلیل فقدان عقل سلیم یا محدودیت‌های اخلاقی، کاری مضر در مقیاس وسیع انجام دهد).

در حالی که هیچ هوش مصنوعی امروزی به چنین سطحی از خودمختاری نرسیده است، سرعت پیشرفت هوش مصنوعی سریع و غیرقابل پیش‌بینی است که خود یک عامل خطر محسوب می‌شود. آماده‌سازی برای خطرات بلندمدت به معنای سرمایه‌گذاری در پژوهش‌های همسویی هوش مصنوعی (اطمینان از سازگاری اهداف هوش مصنوعی با ارزش‌های انسانی)، ایجاد توافقات بین‌المللی درباره پژوهش‌های حساس هوش مصنوعی (مشابه معاهدات تسلیحات هسته‌ای یا بیولوژیکی) و حفظ نظارت انسانی با افزایش توانایی سیستم‌های هوش مصنوعی است.

آینده هوش مصنوعی وعده‌های بزرگی دارد، اما همچنین عدم قطعیت – و خرد حکم می‌کند که حتی خطرات کم‌احتمال و با تأثیر بالا را در برنامه‌ریزی بلندمدت خود در نظر بگیریم.

>>> برای اطلاعات بیشتر کلیک کنید: مزایای هوش مصنوعی برای افراد و کسب‌وکارها

خطرات وجودی و بلندمدت در هوش مصنوعی


هوش مصنوعی اغلب با یک موتور قدرتمند مقایسه می‌شود که می‌تواند بشریت را به جلو براند – اما بدون ترمز و فرمان، آن موتور ممکن است از مسیر خارج شود. همان‌طور که دیدیم، خطرات استفاده از هوش مصنوعی چندوجهی هستند: از مسائل فوری مانند الگوریتم‌های مغرضانه، اخبار جعلی، نقض حریم خصوصی و تغییرات شغلی گرفته تا چالش‌های گسترده‌تر اجتماعی مانند تهدیدات امنیتی، تصمیم‌گیری «جعبه سیاه»، انحصار شرکت‌های بزرگ فناوری، فشارهای زیست‌محیطی و حتی سایه دوردست از دست دادن کنترل به هوش مصنوعی فوق‌العاده هوشمند.

این خطرات به معنای توقف توسعه هوش مصنوعی نیست؛ بلکه بر نیاز فوری به حکمرانی مسئولانه هوش مصنوعی و رعایت اصول اخلاقی تأکید می‌کنند.

دولت‌ها، سازمان‌های بین‌المللی، رهبران صنعت و پژوهشگران به طور فزاینده‌ای برای پرداختن به این نگرانی‌ها همکاری می‌کنند – برای مثال، از طریق چارچوب‌هایی مانند چارچوب مدیریت ریسک هوش مصنوعی NIST آمریکا (برای افزایش اعتماد به هوش مصنوعی)، توصیه‌های جهانی اخلاق هوش مصنوعی یونسکو و قانون هوش مصنوعی اتحادیه اروپا.

این تلاش‌ها هدف دارند تا مزایای هوش مصنوعی را به حداکثر و معایب آن را به حداقل برسانند و اطمینان حاصل کنند که هوش مصنوعی در خدمت بشریت است و نه بالعکس. در نهایت، درک خطرات هوش مصنوعی نخستین گام برای مدیریت آن‌هاست. با آگاهی و مشارکت در نحوه توسعه و استفاده از هوش مصنوعی، می‌توانیم این فناوری تحول‌آفرین را به سوی مسیری ایمن، عادلانه و سودمند برای همه هدایت کنیم.