هوش مصنوعی (AI) به سیستمهای کامپیوتری گفته میشود که هوش انسانی را شبیهسازی میکنند – برای مثال، برنامههایی که قادر به شناسایی تصاویر، درک زبان یا اتخاذ تصمیم هستند. در زندگی روزمره، هوش مصنوعی ابزارهایی مانند دستیارهای صوتی در تلفنهای هوشمند، سیستمهای پیشنهاددهی در شبکههای اجتماعی و حتی چتباتهای پیشرفتهای که متن مینویسند را پشتیبانی میکند.
هوش مصنوعی پتانسیل بهبود چشمگیر بسیاری از حوزهها را دارد، اما نگرانیهای زیادی نیز به همراه دارد.
پس، آیا هوش مصنوعی خطرناک است؟ این مقاله هر دو جنبه را بررسی میکند: مزایای واقعی هوش مصنوعی و خطراتی که کارشناسان به آن اشاره میکنند.
مزایای واقعی هوش مصنوعی در جهان واقعی
تصویر: تصویری دوستانه از رباتها و یک انسان که با هم کار میکنند، نمادی از کمک هوش مصنوعی به انسانها است. هوش مصنوعی هماکنون در بسیاری از کاربردهای مفید ادغام شده است.
برای مثال، یونسکو اشاره میکند که هوش مصنوعی «فرصتهای زیادی ایجاد کرده است» در سراسر جهان – از تشخیصهای پزشکی سریعتر گرفته تا ارتباط بهتر از طریق شبکههای اجتماعی و خودکارسازی کارهای خستهکننده.
اتحادیه اروپا نیز تأکید میکند که «هوش مصنوعی قابل اعتماد میتواند مزایای زیادی به همراه داشته باشد»، مانند بهداشت بهتر، حملونقل ایمنتر و صنعت و مصرف انرژی کارآمدتر. در حوزه پزشکی، سازمان جهانی بهداشت گزارش میدهد که هوش مصنوعی برای تشخیص، توسعه دارو و پاسخ به شیوع بیماریها به کار گرفته میشود و از کشورها میخواهد این نوآوریها را برای همه ترویج دهند.
اقتصاددانان حتی گسترش سریع هوش مصنوعی را با انقلابهای فناوری گذشته مقایسه میکنند.
برای نمونه، دولت آمریکا تأکید میکند که «هوش مصنوعی پتانسیل فوقالعادهای برای وعدهها و خطرات دارد»، به این معنا که باید قدرت آن را برای حل مسائلی مانند تغییرات اقلیمی یا بیماریها به کار گرفت، در حالی که مراقب ریسکها نیز بود.
مزایای کلیدی هوش مصنوعی عبارتند از:
- بهبود مراقبتهای بهداشتی: سیستمهای هوش مصنوعی میتوانند تصاویر رادیولوژی، MRI و دادههای بیماران را سریعتر از انسانها تحلیل کنند و به تشخیص زودهنگام بیماریها و درمانهای شخصیسازیشده کمک کنند. برای مثال، تصویربرداری با کمک هوش مصنوعی میتواند تومورهایی را پیدا کند که پزشکان ممکن است از دست بدهند.
- افزایش بهرهوری: فرآیندهای خودکار در کارخانهها، دفاتر و خدمات باعث افزایش تولید میشوند. همانطور که اتحادیه اروپا اشاره میکند، خودکارسازی مبتنی بر هوش مصنوعی منجر به «تولید کارآمدتر» و حتی شبکههای هوشمند انرژی میشود.
رباتها و نرمافزارها کارهای تکراری را انجام میدهند تا انسانها بتوانند روی کارهای خلاقانه یا پیچیده تمرکز کنند. - حملونقل و خدمات ایمنتر: فناوری خودروهای خودران و هوش مصنوعی مدیریت ترافیک با هدف کاهش تصادفات و ترافیک طراحی شدهاند. هوش مصنوعی هوشمند همچنین میتواند سیستمهای هشدار بلایای طبیعی را بهبود بخشد و لجستیک را بهینه کند، که سفر و حملونقل را ایمنتر میکند.
- کمکهای علمی و محیطزیستی: پژوهشگران از هوش مصنوعی برای تحلیل مدلهای اقلیمی و دادههای ژنتیکی استفاده میکنند. این به مقابله با مسائل بزرگ مانند تغییرات اقلیمی کمک میکند: یونسکو گزارش میدهد که حتی تغییرات کوچک در طراحی هوش مصنوعی میتواند مصرف انرژی آن را به طور چشمگیری کاهش دهد و آن را به ابزاری پایدارتر برای مقابله با تغییرات اقلیمی تبدیل کند.
- آموزش و دسترسیپذیری: معلمان هوش مصنوعی میتوانند آموزش را برای هر دانشآموز شخصیسازی کنند و ابزارهای تشخیص صدا یا ترجمه به افراد دارای معلولیت کمک میکنند. بریتانیکا اشاره میکند که هوش مصنوعی حتی «به گروههای محروم با فراهم کردن دسترسی کمک میکند» (مثلاً دستیارهای خواندن برای نابینایان).
این نمونهها نشان میدهند که هوش مصنوعی فقط داستان علمی-تخیلی نیست – بلکه هماکنون ارزش واقعی ایجاد میکند.
خطرات و ریسکهای احتمالی هوش مصنوعی
تصویر: هنر خیابانی کلمه «روبات» هشداردهنده اثرات ناشناخته هوش مصنوعی است. با وجود وعدههایش، بسیاری از کارشناسان هشدار میدهند که هوش مصنوعی میتواند در صورت سوءاستفاده یا عدم کنترل، خطرناک باشد. یکی از نگرانیهای اصلی تعصب و تبعیض است. چون هوش مصنوعی از دادههای موجود یاد میگیرد، ممکن است تعصبات انسانی را به ارث ببرد.
یونسکو هشدار میدهد که بدون اخلاقیات سختگیرانه، هوش مصنوعی «خطر بازتولید تعصبات و تبعیضهای دنیای واقعی، تشدید اختلافات و تهدید حقوق و آزادیهای بنیادین بشر را دارد». در واقع، مطالعات نشان دادهاند که سیستمهای تشخیص چهره اغلب زنان یا افراد رنگینپوست را اشتباه شناسایی میکنند و الگوریتمهای استخدام ممکن است به نفع جنسیتهای خاصی عمل کنند.
بریتانیکا نیز اشاره میکند که هوش مصنوعی میتواند «به اقلیتهای نژادی آسیب برساند و نژادپرستی را تشدید کند».
خطرات دیگر عبارتند از:
-
حریم خصوصی و نظارت: سیستمهای هوش مصنوعی اغلب به حجم زیادی از دادههای شخصی (پستهای شبکههای اجتماعی، سوابق پزشکی و غیره) نیاز دارند. این موضوع خطر سوءاستفاده را افزایش میدهد. اگر دولتها یا شرکتها بدون رضایت شما دادههایتان را تحلیل کنند، ممکن است به نظارتهای تهاجمی منجر شود.
بریتانیکا درباره «خطرات جدی حریم خصوصی» هوش مصنوعی هشدار میدهد. برای مثال، استفاده بحثبرانگیز از هوش مصنوعی به نام امتیازدهی اجتماعی – جایی که شهروندان توسط الگوریتمها رتبهبندی میشوند – توسط اتحادیه اروپا به عنوان یک عمل «غیرقابل قبول» ممنوع شده است.
حتی چتباتهای شناختهشده نیز نگرانیهایی ایجاد کردهاند: در سال ۲۰۲۳، ایتالیا به طور موقت ChatGPT را به دلیل مسائل حریم خصوصی مسدود کرد. -
اطلاعات نادرست و دیپفیکها: هوش مصنوعی میتواند متن، تصویر یا ویدئوی جعلی بسیار واقعی تولید کند. این کار ساخت دیپفیکها – ویدئوهای جعلی از افراد مشهور یا گزارشهای خبری دروغین – را آسانتر میکند.
بریتانیکا اشاره میکند که هوش مصنوعی میتواند «اطلاعات سیاسیشده و حتی خطرناک را منتشر کند». کارشناسان هشدار دادهاند که چنین جعلیها میتوانند برای دستکاری انتخابات یا افکار عمومی استفاده شوند.
در یک مورد، تصاویر تولیدشده توسط هوش مصنوعی از رهبران جهان با تیترهای خبری نادرست به سرعت منتشر شد قبل از اینکه رد شود. دانشمندان میگویند بدون مقررات، اطلاعات نادرست مبتنی بر هوش مصنوعی میتواند تشدید شود (مثلاً سخنرانیهای جعلی یا تصاویر دستکاریشده که هیچ قانون فعلی قادر به کنترل آنها نیست). -
از دست رفتن شغل و اختلالات اقتصادی: با خودکارسازی وظایف، هوش مصنوعی محیط کار را تغییر خواهد داد. صندوق بینالمللی پول گزارش میدهد که تقریباً ۴۰٪ مشاغل جهانی (و ۶۰٪ در کشورهای توسعهیافته) در معرض خودکارسازی توسط هوش مصنوعی هستند. این شامل نه تنها کارهای کارخانهای بلکه مشاغل طبقه متوسط مانند حسابداری یا نویسندگی نیز میشود.
در حالی که هوش مصنوعی میتواند بهرهوری را افزایش دهد (که در بلندمدت ممکن است دستمزدها را بالا ببرد)، بسیاری از کارگران ممکن است به آموزش جدید نیاز داشته باشند یا در کوتاهمدت با بیکاری مواجه شوند.
رهبران فناوری این نگرانی را تأیید میکنند: حتی مدیرعامل مایکروسافت گفته است که هوش مصنوعی ممکن است ناگهان جایگزین متخصصان ماهر شود. -
امنیت و استفاده مخرب: همانند هر فناوری، هوش مصنوعی میتواند برای آسیب به کار رود. مجرمان سایبری از هوش مصنوعی برای ساخت ایمیلهای فیشینگ قانعکننده یا اسکن سیستمها برای یافتن آسیبپذیریها استفاده میکنند.
کارشناسان نظامی نگران سلاحهای خودمختار هستند: پهپادها یا رباتهایی که بدون تأیید انسان هدفگیری میکنند.
گزارش اخیر پژوهشگران هوش مصنوعی به صراحت هشدار میدهد که ما فاقد نهادهایی هستیم که جلوی «عاملان بیپروا... که ممکن است قابلیتها را به روشهای خطرناک به کار گیرند» را بگیرند، مانند سیستمهای حمله خودکار.
به عبارت دیگر، سیستمی از هوش مصنوعی که کنترل فیزیکی دارد (مانند سلاح) میتواند بهویژه خطرناک باشد اگر از کنترل خارج شود یا بهطور مخرب برنامهریزی شود. -
از دست رفتن کنترل انسانی: برخی اندیشمندان اشاره میکنند که اگر هوش مصنوعی بسیار قدرتمندتر از امروز شود، ممکن است رفتارهای غیرقابل پیشبینی داشته باشد. در حالی که هوش مصنوعی کنونی خودآگاه یا هوشمند نیست، هوش مصنوعی عمومی آینده (AGI) ممکن است اهدافی دنبال کند که با ارزشهای انسانی همراستا نباشد.
دانشمندان برجسته هوش مصنوعی اخیراً هشدار دادهاند که «سیستمهای عمومی بسیار قدرتمند» ممکن است در آینده نزدیک ظاهر شوند مگر اینکه آماده شویم.
برنده جایزه نوبل، جفری هینتون و دیگر کارشناسان حتی خطر افزایش یافتهای را توصیف کردهاند که هوش مصنوعی میتواند به بشریت آسیب برساند اگر پیشرفتهترین هوش مصنوعی با نیازهای ما همراستا نباشد. اگرچه این خطر نامشخص است، اما باعث فراخوانهای برجستهای برای احتیاط شده است. -
تأثیر انرژی و محیطزیست: آموزش و اجرای مدلهای بزرگ هوش مصنوعی برق زیادی مصرف میکند. یونسکو گزارش میدهد که مصرف سالانه انرژی هوش مصنوعی مولد اکنون با مصرف یک کشور کوچک آفریقایی برابری میکند – و به سرعت در حال افزایش است.
این میتواند تغییرات اقلیمی را تشدید کند مگر اینکه از روشهای سبزتر استفاده کنیم.
خبر خوب این است که پژوهشگران راهحلهایی یافتهاند: یک مطالعه یونسکو نشان میدهد که استفاده از مدلهای کوچکتر و کارآمدتر برای وظایف خاص میتواند مصرف انرژی هوش مصنوعی را تا ۹۰٪ بدون کاهش دقت کاهش دهد.
خلاصه اینکه، خطرات واقعی هوش مصنوعی امروز عمدتاً ناشی از نحوه استفاده انسانها از آن است. اگر هوش مصنوعی به دقت مدیریت شود، مزایای آن (سلامت، راحتی، ایمنی) بسیار زیاد است.
اما اگر بدون کنترل رها شود، هوش مصنوعی میتواند موجب تعصب، جرم و حوادث شود.
نقطه مشترک این خطرات، نبود کنترل یا نظارت است: ابزارهای هوش مصنوعی قدرتمند و سریع هستند، بنابراین خطا یا سوءاستفاده در مقیاس وسیع رخ میدهد مگر اینکه مداخله کنیم.
دیدگاه کارشناسان و مسئولان
با توجه به این مسائل، بسیاری از رهبران و پژوهشگران اظهار نظر کردهاند. یک اجماع گسترده از کارشناسان هوش مصنوعی در سالهای اخیر شکل گرفته است.
در سال ۲۰۲۴، گروهی متشکل از ۲۵ دانشمند برجسته هوش مصنوعی (از دانشگاه آکسفورد، برکلی، برندگان جایزه تورینگ و غیره) بیانیهای اجماعی منتشر کردند که خواستار اقدام فوری شدند.
آنها به دولتهای جهان هشدار دادند که اکنون آماده شوند: «اگر خطرات هوش مصنوعی را دستکم بگیریم، پیامدها میتواند فاجعهبار باشد» و خواستار تأمین مالی تحقیقات ایمنی هوش مصنوعی و ایجاد نهادهای نظارتی برای کنترل هوش مصنوعی قدرتمند شدند.
آنها تأکید کردند که توسعه هوش مصنوعی با سرعت بالا «با ایمنی به عنوان یک فکر ثانویه» پیش رفته است و در حال حاضر نهادهایی برای جلوگیری از کاربردهای مخرب وجود ندارد.
رهبران فناوری نیز این هشدار را تکرار میکنند. سام آلتمن، مدیرعامل OpenAI – شرکتی که ChatGPT را ساخته است – به The New York Times گفته است که ساخت هوش مصنوعی پیشرفته مانند «پروژه منهتن» برای عصر دیجیتال است.
او اعتراف کرد که همان ابزارهایی که میتوانند مقاله یا کد بنویسند، ممکن است همچنین باعث «سوءاستفاده، حوادث شدید و اختلالات اجتماعی» شوند اگر به دقت مدیریت نشوند.
در اواخر سال ۲۰۲۳، بیش از ۱۰۰۰ متخصص هوش مصنوعی (از جمله ایلان ماسک، استیو وزنیاک بنیانگذار اپل و بسیاری از پژوهشگران هوش مصنوعی) نامهای سرگشاده امضا کردند و خواستار توقف موقت آموزش مدلهای نسل بعدی هوش مصنوعی شدند.
آنها هشدار دادند که ما در یک «مسابقه خارج از کنترل» برای ساخت هوش مصنوعی قدرتمندتر هستیم که حتی سازندگان آن «نمیتوانند آن را درک، پیشبینی یا به طور قابل اعتماد کنترل کنند».
در مجامع عمومی، کارشناسان بر خطرات خاص تأکید کردهاند. دمیس هسابیس، مدیرعامل Google DeepMind، استدلال کرده است که بزرگترین تهدید نه بیکاری بلکه سوءاستفاده است: یک مجرم سایبری یا دولت سرکش که از هوش مصنوعی برای آسیب به جامعه استفاده میکند.
او اشاره کرده است که به زودی هوش مصنوعی میتواند به هوش انسانی برسد یا از آن پیشی بگیرد و «یک عامل بدخواه میتواند همان فناوریها را برای اهداف مخرب به کار گیرد».
به عبارت دیگر، حتی اگر بتوانیم از دست رفتن شغلها را مدیریت کنیم، باید از افتادن ابزارهای هوش مصنوعی به دست افراد نادرست جلوگیری کنیم.
دولتها و نهادهای بینالمللی نیز به این موضوع توجه کردهاند. کاخ سفید (آمریکا) در سال ۲۰۲۳ فرمان اجرایی صادر کرد که هوش مصنوعی «پتانسیل فوقالعادهای برای وعدهها و خطرات دارد» و خواستار «استفاده مسئولانه از هوش مصنوعی» از طریق تلاش جامعهمحور برای کاهش ریسکهای قابل توجه آن شد.
اتحادیه اروپا اولین قانون هوش مصنوعی جهان را تصویب کرد (که از ۲۰۲۴ اجرایی میشود) که استفادههای خطرناک مانند امتیازدهی اجتماعی دولتی را ممنوع کرده و برای هوش مصنوعی پرخطر (در حوزه سلامت، اجرای قانون و غیره) آزمونهای سختگیرانهای تعیین میکند.
یونسکو (سازمان ملل متحد در حوزه آموزش و فرهنگ) توصیههای جهانی اخلاق هوش مصنوعی را منتشر کرده که بر عدالت، شفافیت و حفاظت از حقوق بشر در هوش مصنوعی تأکید دارد.
حتی سازمانهای سیاستگذاری علمی مانند NIST (مؤسسه ملی استانداردهای آمریکا) چارچوب مدیریت ریسک هوش مصنوعی را برای راهنمایی شرکتها در ساخت هوش مصنوعی قابل اعتماد ارائه دادهاند.
تمام این صداها بر یک نکته توافق دارند: هوش مصنوعی به خودی خود متوقف نخواهد شد. ما باید تدابیر ایمنی ایجاد کنیم. این شامل اصلاحات فنی (ممیزی تعصب، آزمایش امنیت) و قوانین یا نهادهای نظارتی جدید است.
برای مثال، قانونگذاران در سراسر جهان در حال بررسی ایجاد هیئتهای ایمنی هوش مصنوعی هستند، مشابه هیئتهای نظارت بر فناوری هستهای.
هدف توقف نوآوری نیست، بلکه اطمینان از انجام آن تحت دستورالعملهای دقیق است.
تدابیر ایمنی و مقررات
خوشبختانه، بسیاری از راهحلها در حال اجرا هستند. ایده کلیدی «ایمنی هوش مصنوعی از ابتدا» است. شرکتها به طور فزایندهای قوانین اخلاقی را در توسعه هوش مصنوعی لحاظ میکنند.
برای مثال، آزمایشگاههای هوش مصنوعی مدلها را قبل از انتشار برای تعصب بررسی میکنند و فیلترهای محتوایی برای جلوگیری از خروجیهای صریح یا نادرست اضافه میکنند. دولتها و نهادها این موارد را قانونمند میکنند.
قانون هوش مصنوعی اتحادیه اروپا، برای نمونه، برخی استفادههای خطرناک را به طور کامل ممنوع کرده و سایر استفادهها را به عنوان «پرخطر» طبقهبندی میکند (که مشمول ممیزی هستند).
به همین ترتیب، چارچوب اخلاقی هوش مصنوعی یونسکو خواستار اقداماتی مانند ممیزی عدالت، حفاظتهای امنیت سایبری و فرآیندهای دسترسی به شکایات است.
در سطح عملی، نهادهای استانداردسازی دستورالعملهایی منتشر میکنند.
چارچوب NIST آمریکا که پیشتر اشاره کردیم، استانداردهای داوطلبانهای برای سازمانها فراهم میکند تا ریسک هوش مصنوعی را ارزیابی و کاهش دهند.
در سطح بینالمللی، گروههایی مانند OECD و سازمان ملل در حال تدوین اصول هوش مصنوعی هستند (بسیاری از کشورها به آنها پیوستهاند).
حتی شرکتها و دانشگاهها مؤسسات و ائتلافهای ایمنی هوش مصنوعی برای پژوهش در مورد ریسکهای بلندمدت تشکیل میدهند.
علاوه بر این، بسیاری از مقررات فعلی به آسیبهای خاص میپردازند.
برای مثال، قوانین حمایت از مصرفکننده در حال اعمال بر هوش مصنوعی هستند.
اسناد داخلی متا نشان داد که چتباتهای هوش مصنوعی با کودکان شوخیهای نامناسب داشتهاند که باعث خشم ناظران شد (ابزار متا تحت قوانین موجود حمایت از کودکان مجاز نبود).
مقامات در تلاشند قوانین مربوط به سخنان نفرتانگیز، حق نشر و حریم خصوصی را بهروزرسانی کنند تا شامل محتوای تولیدشده توسط هوش مصنوعی شود.
همانطور که یک کارشناس نیوزیلند اشاره کرده است، بسیاری از قوانین فعلی «برای هوش مصنوعی مولد طراحی نشدهاند» و قانونگذاران در حال جبران این عقبماندگی هستند.
روند کلی روشن است: هوش مصنوعی مانند سایر فناوریهای دو منظوره (کاربردهای مثبت و منفی) در حال دریافت مقررات حمایتی است.
همانطور که قوانین رانندگی برای خودروها یا استانداردهای ایمنی برای مواد شیمیایی داریم، جامعه در حال ایجاد چارچوبهای حفاظتی برای هوش مصنوعی است.
این موارد شامل: پژوهشهای مستمر درباره ریسکهای هوش مصنوعی، همکاریهای دولتی-خصوصی در امنیت، کمپینهای آموزشی درباره دیپفیکها و حتی نظرسنجیهایی از شهروندان درباره میزان خودمختاری ماشینها است.
>>>برای اطلاعات بیشتر:
پس، آیا هوش مصنوعی خطرناک است؟ پاسخ پیچیده است. هوش مصنوعی ذاتاً شرور نیست – بلکه ابزاری است که توسط انسانها ساخته شده است.
در شکلهای عملی متعدد امروزی، هوش مصنوعی فواید زیادی برای پزشکی، آموزش، صنعت و غیره به ارمغان آورده است (همانطور که سازمانهایی مانند یونسکو و اتحادیه اروپا تأکید کردهاند).
در عین حال، تقریباً همه موافقند که هوش مصنوعی میتواند در صورت سوءاستفاده یا عدم هدایت صحیح، خطرناک باشد.
نگرانیهای رایج شامل نقض حریم خصوصی، تعصب، اطلاعات نادرست، تغییرات شغلی و خطر فرضی هوش برتر فراروی کنترل است.
جوانانی که درباره هوش مصنوعی میآموزند باید به هر دو جنبه توجه کنند. هوشمندانه است که از خطرات واقعی آگاه باشند: مثلاً هرگز به طور کورکورانه به هوش مصنوعی اعتماد نکنند یا دادههای خصوصی را بدون احتیاط به اشتراک نگذارند.
اما همچنین مهم است که ببینند کارشناسان و دولتها فعالانه در تلاش برای ایمنتر کردن هوش مصنوعی هستند – با توسعه قوانین (مانند قانون هوش مصنوعی اتحادیه اروپا)، دستورالعملها (مانند توصیههای اخلاقی یونسکو) و فناوریها (مانند شناسایی تعصب) برای شناسایی زودهنگام مشکلات.
خلاصه اینکه، هوش مصنوعی مانند هر فناوری قدرتمند دیگری است: وقتی مسئولانه استفاده شود، میتواند فواید بزرگی داشته باشد و در صورت سوءاستفاده، آسیبزا باشد.
اجماع دانشمندان و سیاستگذاران این است که نباید هوش مصنوعی را ترساند یا نادیده گرفت، بلکه باید آگاه بود و در شکلدهی آینده آن مشارکت داشت.
با وجود «چارچوبهای حفاظتی» مناسب – توسعه اخلاقی هوش مصنوعی، مقررات قوی و آگاهی عمومی – میتوانیم هوش مصنوعی را به سمت ایمنی هدایت کنیم و اطمینان حاصل کنیم که به نفع بشریت است بدون اینکه خطرناک شود.