هل الذكاء الاصطناعي خطير؟

الذكاء الاصطناعي مثل أي تقنية قوية: يمكن أن يحقق فوائد عظيمة عند استخدامه بمسؤولية، وقد يسبب ضررًا إذا أُسيء استخدامه.

يشير الذكاء الاصطناعي (AI) إلى أنظمة الحاسوب التي تحاكي الذكاء البشري – على سبيل المثال، برامج يمكنها التعرف على الصور، وفهم اللغة، أو اتخاذ القرارات. في الحياة اليومية، يدعم الذكاء الاصطناعي أدوات مثل المساعدين الصوتيين على الهواتف الذكية، وأنظمة التوصية على وسائل التواصل الاجتماعي، وحتى روبوتات الدردشة المتقدمة التي تكتب النصوص.

يمتلك الذكاء الاصطناعي القدرة على تحسين العديد من المجالات بشكل كبير، لكنه يثير أيضًا العديد من المخاوف.

فهل الذكاء الاصطناعي خطير؟ ستستعرض هذه المقالة الجانبين: الفوائد الحقيقية التي يجلبها الذكاء الاصطناعي والمخاطر التي يسلط الخبراء الضوء عليها.

الفوائد الواقعية للذكاء الاصطناعي

الفوائد الواقعية للذكاء الاصطناعي
الفوائد الواقعية للذكاء الاصطناعي

الذكاء الاصطناعي مدمج بالفعل في العديد من التطبيقات المفيدة التي تظهر تأثيره الإيجابي على المجتمع.

خلق الذكاء الاصطناعي العديد من الفرص حول العالم – من تشخيصات طبية أسرع إلى تحسين الاتصال عبر وسائل التواصل الاجتماعي وأتمتة المهام الروتينية المملة.

— اليونسكو

تسلط الاتحاد الأوروبي الضوء بالمثل على أن "الذكاء الاصطناعي الموثوق يمكن أن يجلب العديد من الفوائد" مثل الرعاية الصحية الأفضل، النقل الأكثر أمانًا، وصناعة أكثر كفاءة واستخدام أفضل للطاقة. في الطب، تشير منظمة الصحة العالمية إلى أن الذكاء الاصطناعي يُستخدم في التشخيص، وتطوير الأدوية، والاستجابة لتفشي الأمراض، داعية الدول إلى تعزيز هذه الابتكارات للجميع.

يقارن الاقتصاديون حتى انتشار الذكاء الاصطناعي السريع بثورات التكنولوجيا السابقة.

وجهة نظر الحكومة: تؤكد الحكومة الأمريكية أن "الذكاء الاصطناعي يحمل إمكانات استثنائية لكل من الوعد والمخاطر"، مما يعني أنه يجب علينا استغلال قوته لحل مشكلات مثل تغير المناخ أو الأمراض، مع الانتباه أيضًا للمخاطر.

الفوائد الرئيسية للذكاء الاصطناعي

تحسين الرعاية الصحية

يمكن لأنظمة الذكاء الاصطناعي تحليل الأشعة السينية، والتصوير بالرنين المغناطيسي، وبيانات المرضى أسرع من البشر، مما يساعد في الكشف المبكر عن الأمراض والعلاج المخصص.

  • يمكن للتصوير المدعوم بالذكاء الاصطناعي اكتشاف الأورام التي قد يغفل عنها الأطباء
  • تشخيص أسرع وتوصيات علاجية
  • طب مخصص بناءً على بيانات المريض

زيادة الكفاءة

تعزز العمليات الآلية في المصانع والمكاتب والخدمات الإنتاجية بشكل كبير.

  • عمليات تصنيع أكثر كفاءة
  • شبكات طاقة وإدارة موارد أذكى
  • يمكن للبشر التركيز على الأعمال الإبداعية أو المعقدة

نقل أكثر أمانًا

تهدف تقنيات السيارات ذاتية القيادة والذكاء الاصطناعي لإدارة المرور إلى تقليل الحوادث والازدحام.

  • أنظمة إنذار محسنة للكوارث
  • لوجستيات وشحن محسّنان
  • تقليل الأخطاء البشرية في النقل

حلول بيئية

يستخدم الباحثون الذكاء الاصطناعي لتحليل نماذج المناخ والبيانات الجينية، مما يساعد في مواجهة قضايا كبيرة مثل تغير المناخ.

  • نمذجة المناخ والتنبؤ
  • تصميم ذكاء اصطناعي موفر للطاقة يقلل الاستهلاك بنسبة 90%
  • تطوير تقنيات مستدامة
تأثير الوصول: يمكن للمعلمين المدعومين بالذكاء الاصطناعي تخصيص التعلم لكل طالب، وتساعد أدوات التعرف على الصوت أو الترجمة الأشخاص ذوي الإعاقات. تشير بريتانيكا إلى أن الذكاء الاصطناعي "يساعد الفئات المهمشة من خلال توفير إمكانية الوصول" (مثل مساعدي القراءة للمكفوفين).

تُظهر هذه الأمثلة أن الذكاء الاصطناعي ليس مجرد خيال علمي – بل يقدم قيمة حقيقية اليوم.

المخاطر والأخطار المحتملة للذكاء الاصطناعي

المخاطر والأخطار المحتملة للذكاء الاصطناعي
المخاطر والأخطار المحتملة للذكاء الاصطناعي

على الرغم من وعوده، يحذر العديد من الخبراء من أن الذكاء الاصطناعي يمكن أن يكون خطيرًا إذا أُسيء استخدامه أو تُرك دون رقابة. أحد المخاوف الرئيسية هو التحيز والتمييز. لأن الذكاء الاصطناعي يتعلم من البيانات الموجودة، فقد يرث تحيزات البشر.

بدون أخلاقيات صارمة، يخاطر الذكاء الاصطناعي بتكرار التحيزات والتمييز في العالم الحقيقي، مما يغذي الانقسامات ويهدد الحقوق والحريات الإنسانية الأساسية.

— اليونسكو

في الواقع، أظهرت الدراسات أن التعرف على الوجه غالبًا ما يخطئ في تحديد النساء أو الأشخاص من ذوي البشرة الملونة، ويمكن لخوارزميات التوظيف تفضيل جنس معين. وتشير بريتانيكا أيضًا إلى أن الذكاء الاصطناعي يمكن أن "يضر بالأقليات العرقية من خلال تكرار وتفاقم العنصرية".

المخاطر الكبرى للذكاء الاصطناعي

الخصوصية والمراقبة

غالبًا ما تتطلب أنظمة الذكاء الاصطناعي كميات هائلة من البيانات الشخصية (منشورات وسائل التواصل الاجتماعي، سجلات صحية، وغيرها). هذا يرفع خطر سوء الاستخدام. إذا استخدمت الحكومات أو الشركات الذكاء الاصطناعي لتحليل بياناتك بدون موافقة، فقد يؤدي ذلك إلى مراقبة متطفلة.

مثال واقعي: في عام 2023، حظرت إيطاليا مؤقتًا ChatGPT بسبب قضايا خصوصية البيانات، مما يبرز المخاوف المستمرة بشأن ممارسات جمع بيانات الذكاء الاصطناعي.

تحذر بريتانيكا من "مخاطر خصوصية خطيرة" من الذكاء الاصطناعي. على سبيل المثال، تم حظر استخدام مثير للجدل للذكاء الاصطناعي يسمى تقييم الائتمان الاجتماعي – حيث يتم تصنيف المواطنين بواسطة الخوارزميات – من قبل الاتحاد الأوروبي باعتباره ممارسة "غير مقبولة".

المعلومات المضللة والفيديوهات المزيفة

يمكن للذكاء الاصطناعي إنشاء نصوص وصور أو فيديوهات مزيفة واقعية. هذا يسهل إنشاء الفيديوهات المزيفة العميقة – مثل فيديوهات مزيفة للمشاهير أو تقارير إخبارية كاذبة.

تشير بريتانيكا إلى أن الذكاء الاصطناعي يمكن أن ينشر "معلومات مضللة سياسية، وحتى خطيرة". حذر الخبراء من أن هذه المزيفات قد تُستخدم للتلاعب بالانتخابات أو الرأي العام.

مخاوف حرجة: في حادثة واحدة، انتشرت صور مولدة بالذكاء الاصطناعي لقادة عالميين يشاركون عناوين أخبار كاذبة قبل أن يتم دحضها. يشير العلماء إلى أنه بدون تنظيم، قد تتصاعد المعلومات المضللة المدفوعة بالذكاء الاصطناعي.

فقدان الوظائف والاضطرابات الاقتصادية

من خلال أتمتة المهام، سيحول الذكاء الاصطناعي مكان العمل. تشير تقارير صندوق النقد الدولي إلى أن حوالي 40% من الوظائف عالميًا (و60% في الدول المتقدمة) معرضة لأتمتة الذكاء الاصطناعي.

الوظائف العالمية المعرضة للخطر 40%
خطر الدول المتقدمة 60%

يشمل هذا ليس فقط العمل في المصانع بل أيضًا وظائف الطبقة الوسطى مثل المحاسبة أو الكتابة. بينما يمكن للذكاء الاصطناعي زيادة الإنتاجية (مما قد يرفع الأجور على المدى الطويل)، قد يحتاج العديد من العمال إلى تدريب جديد أو قد يعانوا من البطالة على المدى القصير.

الأمن والاستخدام الخبيث

مثل أي تقنية، يمكن استخدام الذكاء الاصطناعي لإلحاق الضرر. يستخدم مجرمو الإنترنت الذكاء الاصطناعي بالفعل لإنشاء رسائل تصيد إلكتروني مقنعة أو لفحص الأنظمة بحثًا عن نقاط ضعف.

يقلق الخبراء العسكريون بشأن الأسلحة المستقلة: الطائرات بدون طيار أو الروبوتات التي تختار الأهداف بدون موافقة بشرية.

تحذير الخبراء: تقرير حديث من باحثي الذكاء الاصطناعي يحذر صراحة من أننا نفتقر إلى مؤسسات لمنع "الجهات المتهورة... التي قد تنشر أو تسعى إلى قدرات بطرق خطيرة"، مثل أنظمة الهجوم المستقلة.

بمعنى آخر، يمكن أن يكون نظام الذكاء الاصطناعي الذي يملك تحكمًا ماديًا (مثل سلاح) خطيرًا بشكل خاص إذا خرج عن السيطرة أو برمج بطريقة خبيثة.

فقدان السيطرة البشرية

يشير بعض المفكرين إلى أنه إذا أصبح الذكاء الاصطناعي أقوى بكثير مما هو عليه اليوم، فقد يتصرف بطرق غير متوقعة. بينما الذكاء الاصطناعي الحالي ليس واعيًا أو مدركًا لذاته، قد يسعى الذكاء الاصطناعي العام (AGI) في المستقبل لتحقيق أهداف لا تتوافق مع القيم الإنسانية.

حذر كبار علماء الذكاء الاصطناعي مؤخرًا من أن "أنظمة الذكاء الاصطناعي العامة القوية جدًا" قد تظهر في المستقبل القريب ما لم نستعد.

وصف الحائز على جائزة نوبل جيفري هينتون وخبراء آخرون خطرًا متزايدًا بأن الذكاء الاصطناعي قد يضر بالبشرية إذا لم يتم مواءمة الذكاء الاصطناعي المتقدم مع احتياجاتنا. رغم أن هذا الخطر غير مؤكد، فقد دفع إلى دعوات بارزة للحذر.

تأثير الطاقة والبيئة

يستهلك تدريب وتشغيل نماذج الذكاء الاصطناعي الكبيرة الكثير من الكهرباء. تشير اليونسكو إلى أن استهلاك الذكاء الاصطناعي التوليدي السنوي الآن يعادل استهلاك دولة أفريقية صغيرة – وهو في تزايد سريع.

قد يؤدي هذا إلى تفاقم تغير المناخ ما لم نستخدم طرقًا أكثر خضرة.

تطور إيجابي: تظهر دراسة لليونسكو أن استخدام نماذج أصغر وأكثر كفاءة لمهام محددة يمكن أن يقلل استهلاك الطاقة للذكاء الاصطناعي بنسبة 90% دون فقدان الدقة.
رؤية رئيسية: الأخطار الحقيقية للذكاء الاصطناعي اليوم تأتي في الغالب من كيفية استخدام الناس له. إذا أُدير الذكاء الاصطناعي بعناية، فإن فوائده (الصحة، الراحة، الأمان) هائلة. لكن إذا تُرك دون رقابة، قد يمكن الذكاء الاصطناعي من التحيز والجريمة والحوادث. الخيط المشترك في هذه المخاطر هو نقص السيطرة أو الإشراف: أدوات الذكاء الاصطناعي قوية وسريعة، لذا تحدث الأخطاء أو سوء الاستخدام على نطاق واسع ما لم نتدخل.

ما يقوله الخبراء والمسؤولون

ما يقوله الخبراء والمسؤولون
ما يقوله الخبراء والمسؤولون

نظرًا لهذه القضايا، تحدث العديد من القادة والباحثين. تشكل إجماع كبير من خبراء الذكاء الاصطناعي في السنوات الأخيرة.

إجماع الخبراء 2024: نشر مجموعة من 25 من كبار علماء الذكاء الاصطناعي (من أكسفورد، بيركلي، حائزي جائزة تورينج، وغيرهم) بيان إجماع يدعو إلى اتخاذ إجراءات عاجلة. حذروا الحكومات العالمية من الاستعداد الآن: "إذا قللنا من مخاطر الذكاء الاصطناعي، قد تكون العواقب كارثية."

أكدوا أن تطوير الذكاء الاصطناعي كان يتسارع "مع السلامة كأمر ثانوي"، وأننا نفتقر حاليًا إلى مؤسسات لمنع التطبيقات الخارجة عن السيطرة.

وجهات نظر قادة التكنولوجيا

سام ألتمان (الرئيس التنفيذي لشركة OpenAI)

قال لصحيفة نيويورك تايمز إن بناء الذكاء الاصطناعي المتقدم كان مثل "مشروع مانهاتن" للعصر الرقمي. أقر بأن نفس الأدوات التي يمكنها كتابة المقالات أو البرمجة قد تسبب أيضًا "سوء استخدام، حوادث كارثية واضطرابات اجتماعية" إذا لم تُدار بحذر.

ديميس هسابيس (Google DeepMind)

جادل بأن التهديد الأكبر ليس البطالة بل سوء الاستخدام: مجرم إلكتروني أو دولة مارقة تستخدم الذكاء الاصطناعي لإلحاق الضرر بالمجتمع. وأشار إلى أن "فاعلًا سيئًا قد يعيد توظيف نفس التقنيات لهدف ضار."

نحن في "سباق خارج عن السيطرة" لبناء ذكاء اصطناعي أكثر قوة حتى أن مبدعيه "لا يستطيعون فهمه أو التنبؤ به أو السيطرة عليه بشكل موثوق".

— رسالة مفتوحة وقعها أكثر من 1000 محترف في الذكاء الاصطناعي (بما في ذلك إيلون ماسك، ستيف وزنياك، والعديد من الباحثين)

ردود الحكومة والمنظمات الدولية

رد الحكومة الأمريكية

أصدر البيت الأبيض أمرًا تنفيذيًا في 2023 ينص على أن الذكاء الاصطناعي "يحمل إمكانات استثنائية لكل من الوعد والمخاطر" ويدعو إلى "استخدام مسؤول للذكاء الاصطناعي" من خلال جهد مجتمعي واسع لتخفيف مخاطره الكبيرة.

أصدر المعهد الوطني للمعايير والتكنولوجيا (NIST) إطار عمل إدارة مخاطر الذكاء الاصطناعي لتوجيه الشركات في بناء ذكاء اصطناعي موثوق.

قانون الذكاء الاصطناعي للاتحاد الأوروبي

أقر الاتحاد الأوروبي أول قانون للذكاء الاصطناعي في العالم (ساري المفعول 2024)، يحظر الممارسات الخطرة مثل التصنيف الاجتماعي الحكومي ويتطلب اختبارات صارمة للذكاء الاصطناعي عالي المخاطر (في الصحة، وإنفاذ القانون، وغيرها).

  • يحظر ممارسات الذكاء الاصطناعي غير المقبولة
  • متطلبات صارمة للأنظمة عالية المخاطر
  • التزامات الشفافية للذكاء الاصطناعي العام
  • غرامات ثقيلة على عدم الامتثال

التعاون العالمي

نشرت اليونسكو توصيات أخلاقية عالمية للذكاء الاصطناعي تدعو إلى العدالة والشفافية وحماية حقوق الإنسان في الذكاء الاصطناعي.

تعمل مجموعات مثل منظمة التعاون الاقتصادي والتنمية والأمم المتحدة على مبادئ للذكاء الاصطناعي (وقد وقعت عليها العديد من الدول). تشكل الشركات والجامعات معاهد تحالفات أمان الذكاء الاصطناعي للبحث في المخاطر طويلة الأمد.

إجماع الخبراء: تتفق كل هذه الأصوات على نقطة واحدة: الذكاء الاصطناعي لن يتوقف من تلقاء نفسه. يجب علينا تطوير ضوابط أمان. يشمل ذلك إصلاحات تقنية (تدقيق التحيز، اختبار الأمان) وقوانين جديدة أو هيئات إشراف. الهدف ليس إيقاف الابتكار، بل ضمان حدوثه ضمن إرشادات دقيقة.

الضمانات والتنظيم

الضمانات والتنظيم للذكاء الاصطناعي
الضمانات والتنظيم للذكاء الاصطناعي

لحسن الحظ، هناك العديد من الحلول قيد التنفيذ. الفكرة الأساسية هي "السلامة في تصميم الذكاء الاصطناعي". تبني الشركات قواعد أخلاقية في تطوير الذكاء الاصطناعي بشكل متزايد.

على سبيل المثال، تختبر مختبرات الذكاء الاصطناعي النماذج للتحيز قبل الإصدار وتضيف فلاتر محتوى لمنع المخرجات الصريحة أو الكاذبة. تقوم الحكومات والمؤسسات بتقنين ذلك.

أُطُر تنظيمية

قبل التنظيم

تطوير غير مراقب

  • لا توجد متطلبات لاختبار التحيز
  • شفافية محدودة
  • تدابير أمان غير متسقة
  • حل المشكلات بشكل تفاعلي
مع التنظيم

إشراف منظم

  • تدقيق التحيز الإلزامي
  • متطلبات الشفافية
  • مبادئ السلامة في التصميم
  • إدارة المخاطر بشكل استباقي

تدابير الضمان الحالية

1

الحلول التقنية

تختبر مختبرات الذكاء الاصطناعي النماذج للتحيز قبل الإصدار وتضيف فلاتر محتوى لمنع المخرجات الصريحة أو الكاذبة. تصدر هيئات وضع المعايير إرشادات للمنظمات لتقييم وتخفيف مخاطر الذكاء الاصطناعي.

2

الأُطُر القانونية

يحظر قانون الذكاء الاصطناعي للاتحاد الأوروبي بعض الاستخدامات الخطرة تمامًا ويصنف استخدامات أخرى على أنها "عالية المخاطر" (تخضع للتدقيق). يدعو إطار أخلاقيات الذكاء الاصطناعي لليونسكو إلى تدقيق العدالة، وحماية الأمن السيبراني، وإجراءات شكاوى متاحة.

3

التعاون الصناعي

تشكل الشركات والجامعات معاهد تحالفات أمان الذكاء الاصطناعي للبحث في المخاطر طويلة الأمد. أصبح التعاون بين القطاعين العام والخاص في الأمن وحملات التوعية حول الفيديوهات المزيفة أمرًا شائعًا.

4

المشاركة العامة

حملات التوعية حول مخاطر وفوائد الذكاء الاصطناعي، بالإضافة إلى استفتاءات تسأل المواطنين عن مدى الاستقلالية التي يجب منحها للآلات، تضمن مشاركة ديمقراطية في حوكمة الذكاء الاصطناعي.

تطبيق عملي: تعالج العديد من التنظيمات الحالية أضرارًا محددة. على سبيل المثال، تُطبق قوانين حماية المستهلك على الذكاء الاصطناعي. كشفت وثائق داخلية لشركة ميتا عن روبوتات دردشة ذكاء اصطناعي تغازل الأطفال، مما أثار غضب المنظمين (لم يُسمح باستخدام أداة ميتا بموجب قوانين حماية الطفل الحالية).

تسارع السلطات لتحديث قوانين خطاب الكراهية، وحقوق النشر، والخصوصية لتشمل المحتوى المولد بالذكاء الاصطناعي. كما أشار خبير من نيوزيلندا، فإن العديد من القوانين الحالية "لم تُصمم مع وضع الذكاء الاصطناعي التوليدي في الاعتبار"، لذا يلاحق المشرعون التطورات.

الاتجاه العام: يُعامل الذكاء الاصطناعي بشكل مشابه للتقنيات ذات الاستخدام المزدوج الأخرى. تمامًا كما لدينا قوانين المرور للسيارات أو معايير السلامة للمواد الكيميائية، يبدأ المجتمع في إنشاء حواجز أمان للذكاء الاصطناعي. تشمل هذه الأبحاث المستمرة حول مخاطر الذكاء الاصطناعي، والتعاون بين القطاعين العام والخاص في الأمن، وحملات التوعية حول الفيديوهات المزيفة، وحتى استفتاءات تسأل المواطنين عن مدى الاستقلالية التي يجب منحها للآلات.

الخلاصة: منظور متوازن حول سلامة الذكاء الاصطناعي

فهل الذكاء الاصطناعي خطير؟ الجواب معقد. الذكاء الاصطناعي ليس شريرًا بطبيعته – إنه أداة صنعها البشر.

في أشكاله العملية العديدة اليوم، جلب فوائد هائلة للطب، والتعليم، والصناعة، وأكثر (كما أبرزت منظمات مثل اليونسكو والاتحاد الأوروبي).

وفي الوقت نفسه، يتفق الجميع تقريبًا على أن الذكاء الاصطناعي يمكن أن يكون خطيرًا إذا أُسيء استخدام قوته أو تُرك دون توجيه.

للمتعلمين الشباب

ركز على الجانبين. كن واعيًا بالمخاطر الحقيقية: لا تثق بالذكاء الاصطناعي بشكل أعمى أو تشارك بياناتك الخاصة دون حذر. لكن أيضًا لاحظ أن الخبراء والحكومات يعملون بنشاط لجعل الذكاء الاصطناعي أكثر أمانًا.

تدابير السلامة

تُطور القوانين (مثل قانون الذكاء الاصطناعي للاتحاد الأوروبي)، والإرشادات (مثل توصيات أخلاقيات اليونسكو)، والتقنيات (مثل كشف التحيز) لاكتشاف المشكلات مبكرًا.

تشمل المخاوف الشائعة انتهاكات الخصوصية، والتحيز، والمعلومات المضللة، واضطرابات الوظائف، والخطر الافتراضي للذكاء الاصطناعي الخارق الهارب.

إجماع الخبراء: الذكاء الاصطناعي مثل أي تقنية قوية: يمكن أن يحقق خيرًا عظيمًا عند استخدامه بمسؤولية، وقد يسبب ضررًا إذا أُسيء استخدامه. يتفق العلماء وصناع السياسات على أنه لا يجب إثارة الذعر أو تجاهل الذكاء الاصطناعي، بل يجب البقاء على اطلاع والمشاركة في تشكيل مستقبله.

مع وجود "حواجز أمان" مناسبة – تطوير أخلاقي للذكاء الاصطناعي، تنظيم قوي، ووعي عام – يمكننا توجيه الذكاء الاصطناعي نحو الأمان وضمان استفادة البشرية منه دون أن يصبح خطيرًا.

المراجع الخارجية
تم إعداد هذا المقال بالرجوع إلى المصادر الخارجية التالية:
96 مقالات
روزي ها هي كاتبة في Inviai، متخصصة في مشاركة المعرفة والحلول المتعلقة بالذكاء الاصطناعي. بفضل خبرتها في البحث وتطبيق الذكاء الاصطناعي في مجالات متعددة مثل الأعمال التجارية، إنشاء المحتوى، والأتمتة، تقدم روزي ها مقالات سهلة الفهم، عملية وملهمة. تتمثل مهمة روزي ها في مساعدة الجميع على استغلال الذكاء الاصطناعي بفعالية لتعزيز الإنتاجية وتوسيع آفاق الإبداع.
بحث