هوش مصنوعی (AI) به سیستم‌های کامپیوتری گفته می‌شود که هوش انسانی را شبیه‌سازی می‌کنند – برای مثال، برنامه‌هایی که قادر به شناسایی تصاویر، درک زبان یا اتخاذ تصمیم هستند. در زندگی روزمره، هوش مصنوعی ابزارهایی مانند دستیارهای صوتی در تلفن‌های هوشمند، سیستم‌های پیشنهاددهی در شبکه‌های اجتماعی و حتی چت‌بات‌های پیشرفته‌ای که متن می‌نویسند را پشتیبانی می‌کند.

هوش مصنوعی پتانسیل بهبود چشمگیر بسیاری از حوزه‌ها را دارد، اما نگرانی‌های زیادی نیز به همراه دارد.

پس، آیا هوش مصنوعی خطرناک است؟ این مقاله هر دو جنبه را بررسی می‌کند: مزایای واقعی هوش مصنوعی و خطراتی که کارشناسان به آن اشاره می‌کنند.

مزایای واقعی هوش مصنوعی در جهان واقعی

تصویر: تصویری دوستانه از ربات‌ها و یک انسان که با هم کار می‌کنند، نمادی از کمک هوش مصنوعی به انسان‌ها است. هوش مصنوعی هم‌اکنون در بسیاری از کاربردهای مفید ادغام شده است.

برای مثال، یونسکو اشاره می‌کند که هوش مصنوعی «فرصت‌های زیادی ایجاد کرده است» در سراسر جهان – از تشخیص‌های پزشکی سریع‌تر گرفته تا ارتباط بهتر از طریق شبکه‌های اجتماعی و خودکارسازی کارهای خسته‌کننده.

اتحادیه اروپا نیز تأکید می‌کند که «هوش مصنوعی قابل اعتماد می‌تواند مزایای زیادی به همراه داشته باشد»، مانند بهداشت بهتر، حمل‌ونقل ایمن‌تر و صنعت و مصرف انرژی کارآمدتر. در حوزه پزشکی، سازمان جهانی بهداشت گزارش می‌دهد که هوش مصنوعی برای تشخیص، توسعه دارو و پاسخ به شیوع بیماری‌ها به کار گرفته می‌شود و از کشورها می‌خواهد این نوآوری‌ها را برای همه ترویج دهند.

اقتصاددانان حتی گسترش سریع هوش مصنوعی را با انقلاب‌های فناوری گذشته مقایسه می‌کنند.

برای نمونه، دولت آمریکا تأکید می‌کند که «هوش مصنوعی پتانسیل فوق‌العاده‌ای برای وعده‌ها و خطرات دارد»، به این معنا که باید قدرت آن را برای حل مسائلی مانند تغییرات اقلیمی یا بیماری‌ها به کار گرفت، در حالی که مراقب ریسک‌ها نیز بود.

مزایای کلیدی هوش مصنوعی عبارتند از:

  • بهبود مراقبت‌های بهداشتی: سیستم‌های هوش مصنوعی می‌توانند تصاویر رادیولوژی، MRI و داده‌های بیماران را سریع‌تر از انسان‌ها تحلیل کنند و به تشخیص زودهنگام بیماری‌ها و درمان‌های شخصی‌سازی‌شده کمک کنند. برای مثال، تصویربرداری با کمک هوش مصنوعی می‌تواند تومورهایی را پیدا کند که پزشکان ممکن است از دست بدهند.
  • افزایش بهره‌وری: فرآیندهای خودکار در کارخانه‌ها، دفاتر و خدمات باعث افزایش تولید می‌شوند. همان‌طور که اتحادیه اروپا اشاره می‌کند، خودکارسازی مبتنی بر هوش مصنوعی منجر به «تولید کارآمدتر» و حتی شبکه‌های هوشمند انرژی می‌شود.
    ربات‌ها و نرم‌افزارها کارهای تکراری را انجام می‌دهند تا انسان‌ها بتوانند روی کارهای خلاقانه یا پیچیده تمرکز کنند.
  • حمل‌ونقل و خدمات ایمن‌تر: فناوری خودروهای خودران و هوش مصنوعی مدیریت ترافیک با هدف کاهش تصادفات و ترافیک طراحی شده‌اند. هوش مصنوعی هوشمند همچنین می‌تواند سیستم‌های هشدار بلایای طبیعی را بهبود بخشد و لجستیک را بهینه کند، که سفر و حمل‌ونقل را ایمن‌تر می‌کند.
  • کمک‌های علمی و محیط‌زیستی: پژوهشگران از هوش مصنوعی برای تحلیل مدل‌های اقلیمی و داده‌های ژنتیکی استفاده می‌کنند. این به مقابله با مسائل بزرگ مانند تغییرات اقلیمی کمک می‌کند: یونسکو گزارش می‌دهد که حتی تغییرات کوچک در طراحی هوش مصنوعی می‌تواند مصرف انرژی آن را به طور چشمگیری کاهش دهد و آن را به ابزاری پایدارتر برای مقابله با تغییرات اقلیمی تبدیل کند.
  • آموزش و دسترسی‌پذیری: معلمان هوش مصنوعی می‌توانند آموزش را برای هر دانش‌آموز شخصی‌سازی کنند و ابزارهای تشخیص صدا یا ترجمه به افراد دارای معلولیت کمک می‌کنند. بریتانیکا اشاره می‌کند که هوش مصنوعی حتی «به گروه‌های محروم با فراهم کردن دسترسی کمک می‌کند» (مثلاً دستیارهای خواندن برای نابینایان).

این نمونه‌ها نشان می‌دهند که هوش مصنوعی فقط داستان علمی-تخیلی نیست – بلکه هم‌اکنون ارزش واقعی ایجاد می‌کند.

مزایای واقعی هوش مصنوعی در جهان واقعی

خطرات و ریسک‌های احتمالی هوش مصنوعی

تصویر: هنر خیابانی کلمه «روبات» هشداردهنده اثرات ناشناخته هوش مصنوعی است. با وجود وعده‌هایش، بسیاری از کارشناسان هشدار می‌دهند که هوش مصنوعی می‌تواند در صورت سوءاستفاده یا عدم کنترل، خطرناک باشد. یکی از نگرانی‌های اصلی تعصب و تبعیض است. چون هوش مصنوعی از داده‌های موجود یاد می‌گیرد، ممکن است تعصبات انسانی را به ارث ببرد.

یونسکو هشدار می‌دهد که بدون اخلاقیات سختگیرانه، هوش مصنوعی «خطر بازتولید تعصبات و تبعیض‌های دنیای واقعی، تشدید اختلافات و تهدید حقوق و آزادی‌های بنیادین بشر را دارد». در واقع، مطالعات نشان داده‌اند که سیستم‌های تشخیص چهره اغلب زنان یا افراد رنگین‌پوست را اشتباه شناسایی می‌کنند و الگوریتم‌های استخدام ممکن است به نفع جنسیت‌های خاصی عمل کنند.

بریتانیکا نیز اشاره می‌کند که هوش مصنوعی می‌تواند «به اقلیت‌های نژادی آسیب برساند و نژادپرستی را تشدید کند».

خطرات دیگر عبارتند از:

  • حریم خصوصی و نظارت: سیستم‌های هوش مصنوعی اغلب به حجم زیادی از داده‌های شخصی (پست‌های شبکه‌های اجتماعی، سوابق پزشکی و غیره) نیاز دارند. این موضوع خطر سوءاستفاده را افزایش می‌دهد. اگر دولت‌ها یا شرکت‌ها بدون رضایت شما داده‌هایتان را تحلیل کنند، ممکن است به نظارت‌های تهاجمی منجر شود.

    بریتانیکا درباره «خطرات جدی حریم خصوصی» هوش مصنوعی هشدار می‌دهد. برای مثال، استفاده بحث‌برانگیز از هوش مصنوعی به نام امتیازدهی اجتماعی – جایی که شهروندان توسط الگوریتم‌ها رتبه‌بندی می‌شوند – توسط اتحادیه اروپا به عنوان یک عمل «غیرقابل قبول» ممنوع شده است.
    حتی چت‌بات‌های شناخته‌شده نیز نگرانی‌هایی ایجاد کرده‌اند: در سال ۲۰۲۳، ایتالیا به طور موقت ChatGPT را به دلیل مسائل حریم خصوصی مسدود کرد.

  • اطلاعات نادرست و دیپ‌فیک‌ها: هوش مصنوعی می‌تواند متن، تصویر یا ویدئوی جعلی بسیار واقعی تولید کند. این کار ساخت دیپ‌فیک‌ها – ویدئوهای جعلی از افراد مشهور یا گزارش‌های خبری دروغین – را آسان‌تر می‌کند.

    بریتانیکا اشاره می‌کند که هوش مصنوعی می‌تواند «اطلاعات سیاسی‌شده و حتی خطرناک را منتشر کند». کارشناسان هشدار داده‌اند که چنین جعلی‌ها می‌توانند برای دستکاری انتخابات یا افکار عمومی استفاده شوند.

    در یک مورد، تصاویر تولیدشده توسط هوش مصنوعی از رهبران جهان با تیترهای خبری نادرست به سرعت منتشر شد قبل از اینکه رد شود. دانشمندان می‌گویند بدون مقررات، اطلاعات نادرست مبتنی بر هوش مصنوعی می‌تواند تشدید شود (مثلاً سخنرانی‌های جعلی یا تصاویر دستکاری‌شده که هیچ قانون فعلی قادر به کنترل آن‌ها نیست).

  • از دست رفتن شغل و اختلالات اقتصادی: با خودکارسازی وظایف، هوش مصنوعی محیط کار را تغییر خواهد داد. صندوق بین‌المللی پول گزارش می‌دهد که تقریباً ۴۰٪ مشاغل جهانی (و ۶۰٪ در کشورهای توسعه‌یافته) در معرض خودکارسازی توسط هوش مصنوعی هستند. این شامل نه تنها کارهای کارخانه‌ای بلکه مشاغل طبقه متوسط مانند حسابداری یا نویسندگی نیز می‌شود.
    در حالی که هوش مصنوعی می‌تواند بهره‌وری را افزایش دهد (که در بلندمدت ممکن است دستمزدها را بالا ببرد)، بسیاری از کارگران ممکن است به آموزش جدید نیاز داشته باشند یا در کوتاه‌مدت با بیکاری مواجه شوند.
    رهبران فناوری این نگرانی را تأیید می‌کنند: حتی مدیرعامل مایکروسافت گفته است که هوش مصنوعی ممکن است ناگهان جایگزین متخصصان ماهر شود.

  • امنیت و استفاده مخرب: همانند هر فناوری، هوش مصنوعی می‌تواند برای آسیب به کار رود. مجرمان سایبری از هوش مصنوعی برای ساخت ایمیل‌های فیشینگ قانع‌کننده یا اسکن سیستم‌ها برای یافتن آسیب‌پذیری‌ها استفاده می‌کنند.

    کارشناسان نظامی نگران سلاح‌های خودمختار هستند: پهپادها یا ربات‌هایی که بدون تأیید انسان هدف‌گیری می‌کنند.
    گزارش اخیر پژوهشگران هوش مصنوعی به صراحت هشدار می‌دهد که ما فاقد نهادهایی هستیم که جلوی «عاملان بی‌پروا... که ممکن است قابلیت‌ها را به روش‌های خطرناک به کار گیرند» را بگیرند، مانند سیستم‌های حمله خودکار.

    به عبارت دیگر، سیستمی از هوش مصنوعی که کنترل فیزیکی دارد (مانند سلاح) می‌تواند به‌ویژه خطرناک باشد اگر از کنترل خارج شود یا به‌طور مخرب برنامه‌ریزی شود.

  • از دست رفتن کنترل انسانی: برخی اندیشمندان اشاره می‌کنند که اگر هوش مصنوعی بسیار قدرتمندتر از امروز شود، ممکن است رفتارهای غیرقابل پیش‌بینی داشته باشد. در حالی که هوش مصنوعی کنونی خودآگاه یا هوشمند نیست، هوش مصنوعی عمومی آینده (AGI) ممکن است اهدافی دنبال کند که با ارزش‌های انسانی هم‌راستا نباشد.

    دانشمندان برجسته هوش مصنوعی اخیراً هشدار داده‌اند که «سیستم‌های عمومی بسیار قدرتمند» ممکن است در آینده نزدیک ظاهر شوند مگر اینکه آماده شویم.

    برنده جایزه نوبل، جفری هینتون و دیگر کارشناسان حتی خطر افزایش یافته‌ای را توصیف کرده‌اند که هوش مصنوعی می‌تواند به بشریت آسیب برساند اگر پیشرفته‌ترین هوش مصنوعی با نیازهای ما هم‌راستا نباشد. اگرچه این خطر نامشخص است، اما باعث فراخوان‌های برجسته‌ای برای احتیاط شده است.

  • تأثیر انرژی و محیط‌زیست: آموزش و اجرای مدل‌های بزرگ هوش مصنوعی برق زیادی مصرف می‌کند. یونسکو گزارش می‌دهد که مصرف سالانه انرژی هوش مصنوعی مولد اکنون با مصرف یک کشور کوچک آفریقایی برابری می‌کند – و به سرعت در حال افزایش است.

    این می‌تواند تغییرات اقلیمی را تشدید کند مگر اینکه از روش‌های سبزتر استفاده کنیم.

    خبر خوب این است که پژوهشگران راه‌حل‌هایی یافته‌اند: یک مطالعه یونسکو نشان می‌دهد که استفاده از مدل‌های کوچک‌تر و کارآمدتر برای وظایف خاص می‌تواند مصرف انرژی هوش مصنوعی را تا ۹۰٪ بدون کاهش دقت کاهش دهد.

خلاصه اینکه، خطرات واقعی هوش مصنوعی امروز عمدتاً ناشی از نحوه استفاده انسان‌ها از آن است. اگر هوش مصنوعی به دقت مدیریت شود، مزایای آن (سلامت، راحتی، ایمنی) بسیار زیاد است.

اما اگر بدون کنترل رها شود، هوش مصنوعی می‌تواند موجب تعصب، جرم و حوادث شود.

نقطه مشترک این خطرات، نبود کنترل یا نظارت است: ابزارهای هوش مصنوعی قدرتمند و سریع هستند، بنابراین خطا یا سوءاستفاده در مقیاس وسیع رخ می‌دهد مگر اینکه مداخله کنیم.

خطرات و ریسک‌های احتمالی هوش مصنوعی

دیدگاه کارشناسان و مسئولان

با توجه به این مسائل، بسیاری از رهبران و پژوهشگران اظهار نظر کرده‌اند. یک اجماع گسترده از کارشناسان هوش مصنوعی در سال‌های اخیر شکل گرفته است.

در سال ۲۰۲۴، گروهی متشکل از ۲۵ دانشمند برجسته هوش مصنوعی (از دانشگاه آکسفورد، برکلی، برندگان جایزه تورینگ و غیره) بیانیه‌ای اجماعی منتشر کردند که خواستار اقدام فوری شدند.

آن‌ها به دولت‌های جهان هشدار دادند که اکنون آماده شوند: «اگر خطرات هوش مصنوعی را دست‌کم بگیریم، پیامدها می‌تواند فاجعه‌بار باشد» و خواستار تأمین مالی تحقیقات ایمنی هوش مصنوعی و ایجاد نهادهای نظارتی برای کنترل هوش مصنوعی قدرتمند شدند.

آن‌ها تأکید کردند که توسعه هوش مصنوعی با سرعت بالا «با ایمنی به عنوان یک فکر ثانویه» پیش رفته است و در حال حاضر نهادهایی برای جلوگیری از کاربردهای مخرب وجود ندارد.

رهبران فناوری نیز این هشدار را تکرار می‌کنند. سام آلتمن، مدیرعامل OpenAI – شرکتی که ChatGPT را ساخته است – به The New York Times گفته است که ساخت هوش مصنوعی پیشرفته مانند «پروژه منهتن» برای عصر دیجیتال است.

او اعتراف کرد که همان ابزارهایی که می‌توانند مقاله یا کد بنویسند، ممکن است همچنین باعث «سوءاستفاده، حوادث شدید و اختلالات اجتماعی» شوند اگر به دقت مدیریت نشوند.

در اواخر سال ۲۰۲۳، بیش از ۱۰۰۰ متخصص هوش مصنوعی (از جمله ایلان ماسک، استیو وزنیاک بنیان‌گذار اپل و بسیاری از پژوهشگران هوش مصنوعی) نامه‌ای سرگشاده امضا کردند و خواستار توقف موقت آموزش مدل‌های نسل بعدی هوش مصنوعی شدند.

آن‌ها هشدار دادند که ما در یک «مسابقه خارج از کنترل» برای ساخت هوش مصنوعی قدرتمندتر هستیم که حتی سازندگان آن «نمی‌توانند آن را درک، پیش‌بینی یا به طور قابل اعتماد کنترل کنند».

در مجامع عمومی، کارشناسان بر خطرات خاص تأکید کرده‌اند. دمیس هسابیس، مدیرعامل Google DeepMind، استدلال کرده است که بزرگ‌ترین تهدید نه بیکاری بلکه سوءاستفاده است: یک مجرم سایبری یا دولت سرکش که از هوش مصنوعی برای آسیب به جامعه استفاده می‌کند.

او اشاره کرده است که به زودی هوش مصنوعی می‌تواند به هوش انسانی برسد یا از آن پیشی بگیرد و «یک عامل بدخواه می‌تواند همان فناوری‌ها را برای اهداف مخرب به کار گیرد».

به عبارت دیگر، حتی اگر بتوانیم از دست رفتن شغل‌ها را مدیریت کنیم، باید از افتادن ابزارهای هوش مصنوعی به دست افراد نادرست جلوگیری کنیم.

دولت‌ها و نهادهای بین‌المللی نیز به این موضوع توجه کرده‌اند. کاخ سفید (آمریکا) در سال ۲۰۲۳ فرمان اجرایی صادر کرد که هوش مصنوعی «پتانسیل فوق‌العاده‌ای برای وعده‌ها و خطرات دارد» و خواستار «استفاده مسئولانه از هوش مصنوعی» از طریق تلاش جامعه‌محور برای کاهش ریسک‌های قابل توجه آن شد.

اتحادیه اروپا اولین قانون هوش مصنوعی جهان را تصویب کرد (که از ۲۰۲۴ اجرایی می‌شود) که استفاده‌های خطرناک مانند امتیازدهی اجتماعی دولتی را ممنوع کرده و برای هوش مصنوعی پرخطر (در حوزه سلامت، اجرای قانون و غیره) آزمون‌های سختگیرانه‌ای تعیین می‌کند.

یونسکو (سازمان ملل متحد در حوزه آموزش و فرهنگ) توصیه‌های جهانی اخلاق هوش مصنوعی را منتشر کرده که بر عدالت، شفافیت و حفاظت از حقوق بشر در هوش مصنوعی تأکید دارد.

حتی سازمان‌های سیاست‌گذاری علمی مانند NIST (مؤسسه ملی استانداردهای آمریکا) چارچوب مدیریت ریسک هوش مصنوعی را برای راهنمایی شرکت‌ها در ساخت هوش مصنوعی قابل اعتماد ارائه داده‌اند.

تمام این صداها بر یک نکته توافق دارند: هوش مصنوعی به خودی خود متوقف نخواهد شد. ما باید تدابیر ایمنی ایجاد کنیم. این شامل اصلاحات فنی (ممیزی تعصب، آزمایش امنیت) و قوانین یا نهادهای نظارتی جدید است.

برای مثال، قانون‌گذاران در سراسر جهان در حال بررسی ایجاد هیئت‌های ایمنی هوش مصنوعی هستند، مشابه هیئت‌های نظارت بر فناوری هسته‌ای.

هدف توقف نوآوری نیست، بلکه اطمینان از انجام آن تحت دستورالعمل‌های دقیق است.

دیدگاه کارشناسان و مسئولان

تدابیر ایمنی و مقررات

خوشبختانه، بسیاری از راه‌حل‌ها در حال اجرا هستند. ایده کلیدی «ایمنی هوش مصنوعی از ابتدا» است. شرکت‌ها به طور فزاینده‌ای قوانین اخلاقی را در توسعه هوش مصنوعی لحاظ می‌کنند.

برای مثال، آزمایشگاه‌های هوش مصنوعی مدل‌ها را قبل از انتشار برای تعصب بررسی می‌کنند و فیلترهای محتوایی برای جلوگیری از خروجی‌های صریح یا نادرست اضافه می‌کنند. دولت‌ها و نهادها این موارد را قانونمند می‌کنند.

قانون هوش مصنوعی اتحادیه اروپا، برای نمونه، برخی استفاده‌های خطرناک را به طور کامل ممنوع کرده و سایر استفاده‌ها را به عنوان «پرخطر» طبقه‌بندی می‌کند (که مشمول ممیزی هستند).

به همین ترتیب، چارچوب اخلاقی هوش مصنوعی یونسکو خواستار اقداماتی مانند ممیزی عدالت، حفاظت‌های امنیت سایبری و فرآیندهای دسترسی به شکایات است.

در سطح عملی، نهادهای استانداردسازی دستورالعمل‌هایی منتشر می‌کنند.

چارچوب NIST آمریکا که پیش‌تر اشاره کردیم، استانداردهای داوطلبانه‌ای برای سازمان‌ها فراهم می‌کند تا ریسک هوش مصنوعی را ارزیابی و کاهش دهند.

در سطح بین‌المللی، گروه‌هایی مانند OECD و سازمان ملل در حال تدوین اصول هوش مصنوعی هستند (بسیاری از کشورها به آن‌ها پیوسته‌اند).

حتی شرکت‌ها و دانشگاه‌ها مؤسسات و ائتلاف‌های ایمنی هوش مصنوعی برای پژوهش در مورد ریسک‌های بلندمدت تشکیل می‌دهند.

علاوه بر این، بسیاری از مقررات فعلی به آسیب‌های خاص می‌پردازند.

برای مثال، قوانین حمایت از مصرف‌کننده در حال اعمال بر هوش مصنوعی هستند.

اسناد داخلی متا نشان داد که چت‌بات‌های هوش مصنوعی با کودکان شوخی‌های نامناسب داشته‌اند که باعث خشم ناظران شد (ابزار متا تحت قوانین موجود حمایت از کودکان مجاز نبود).

مقامات در تلاشند قوانین مربوط به سخنان نفرت‌انگیز، حق نشر و حریم خصوصی را به‌روزرسانی کنند تا شامل محتوای تولیدشده توسط هوش مصنوعی شود.

همان‌طور که یک کارشناس نیوزیلند اشاره کرده است، بسیاری از قوانین فعلی «برای هوش مصنوعی مولد طراحی نشده‌اند» و قانون‌گذاران در حال جبران این عقب‌ماندگی هستند.

روند کلی روشن است: هوش مصنوعی مانند سایر فناوری‌های دو منظوره (کاربردهای مثبت و منفی) در حال دریافت مقررات حمایتی است.

همان‌طور که قوانین رانندگی برای خودروها یا استانداردهای ایمنی برای مواد شیمیایی داریم، جامعه در حال ایجاد چارچوب‌های حفاظتی برای هوش مصنوعی است.

این موارد شامل: پژوهش‌های مستمر درباره ریسک‌های هوش مصنوعی، همکاری‌های دولتی-خصوصی در امنیت، کمپین‌های آموزشی درباره دیپ‌فیک‌ها و حتی نظرسنجی‌هایی از شهروندان درباره میزان خودمختاری ماشین‌ها است.

>>>برای اطلاعات بیشتر:

آیا هوش مصنوعی جایگزین انسان خواهد شد؟

آیا هوش مصنوعی مانند انسان‌ها فکر می‌کند؟

تدابیر ایمنی و مقررات هوش مصنوعی


پس، آیا هوش مصنوعی خطرناک است؟ پاسخ پیچیده است. هوش مصنوعی ذاتاً شرور نیست – بلکه ابزاری است که توسط انسان‌ها ساخته شده است.

در شکل‌های عملی متعدد امروزی، هوش مصنوعی فواید زیادی برای پزشکی، آموزش، صنعت و غیره به ارمغان آورده است (همان‌طور که سازمان‌هایی مانند یونسکو و اتحادیه اروپا تأکید کرده‌اند).

در عین حال، تقریباً همه موافقند که هوش مصنوعی می‌تواند در صورت سوءاستفاده یا عدم هدایت صحیح، خطرناک باشد.

نگرانی‌های رایج شامل نقض حریم خصوصی، تعصب، اطلاعات نادرست، تغییرات شغلی و خطر فرضی هوش برتر فراروی کنترل است.

جوانانی که درباره هوش مصنوعی می‌آموزند باید به هر دو جنبه توجه کنند. هوشمندانه است که از خطرات واقعی آگاه باشند: مثلاً هرگز به طور کورکورانه به هوش مصنوعی اعتماد نکنند یا داده‌های خصوصی را بدون احتیاط به اشتراک نگذارند.

اما همچنین مهم است که ببینند کارشناسان و دولت‌ها فعالانه در تلاش برای ایمن‌تر کردن هوش مصنوعی هستند – با توسعه قوانین (مانند قانون هوش مصنوعی اتحادیه اروپا)، دستورالعمل‌ها (مانند توصیه‌های اخلاقی یونسکو) و فناوری‌ها (مانند شناسایی تعصب) برای شناسایی زودهنگام مشکلات.

خلاصه اینکه، هوش مصنوعی مانند هر فناوری قدرتمند دیگری است: وقتی مسئولانه استفاده شود، می‌تواند فواید بزرگی داشته باشد و در صورت سوءاستفاده، آسیب‌زا باشد.

اجماع دانشمندان و سیاست‌گذاران این است که نباید هوش مصنوعی را ترساند یا نادیده گرفت، بلکه باید آگاه بود و در شکل‌دهی آینده آن مشارکت داشت.

با وجود «چارچوب‌های حفاظتی» مناسب – توسعه اخلاقی هوش مصنوعی، مقررات قوی و آگاهی عمومی – می‌توانیم هوش مصنوعی را به سمت ایمنی هدایت کنیم و اطمینان حاصل کنیم که به نفع بشریت است بدون اینکه خطرناک شود.

منابع خارجی
این مقاله با ارجاع به منابع خارجی زیر تهیه شده است.