هل الذكاء الاصطناعي خطير؟
الذكاء الاصطناعي مثل أي تقنية قوية: يمكن أن يحقق فوائد عظيمة عند استخدامه بمسؤولية، وقد يسبب ضررًا إذا أُسيء استخدامه.
يشير الذكاء الاصطناعي (AI) إلى أنظمة الحاسوب التي تحاكي الذكاء البشري – على سبيل المثال، برامج يمكنها التعرف على الصور، وفهم اللغة، أو اتخاذ القرارات. في الحياة اليومية، يدعم الذكاء الاصطناعي أدوات مثل المساعدين الصوتيين على الهواتف الذكية، وأنظمة التوصية على وسائل التواصل الاجتماعي، وحتى روبوتات الدردشة المتقدمة التي تكتب النصوص.
يمتلك الذكاء الاصطناعي القدرة على تحسين العديد من المجالات بشكل كبير، لكنه يثير أيضًا العديد من المخاوف.
فهل الذكاء الاصطناعي خطير؟ ستستعرض هذه المقالة الجانبين: الفوائد الحقيقية التي يجلبها الذكاء الاصطناعي والمخاطر التي يسلط الخبراء الضوء عليها.
الفوائد الواقعية للذكاء الاصطناعي

الذكاء الاصطناعي مدمج بالفعل في العديد من التطبيقات المفيدة التي تظهر تأثيره الإيجابي على المجتمع.
خلق الذكاء الاصطناعي العديد من الفرص حول العالم – من تشخيصات طبية أسرع إلى تحسين الاتصال عبر وسائل التواصل الاجتماعي وأتمتة المهام الروتينية المملة.
— اليونسكو
تسلط الاتحاد الأوروبي الضوء بالمثل على أن "الذكاء الاصطناعي الموثوق يمكن أن يجلب العديد من الفوائد" مثل الرعاية الصحية الأفضل، النقل الأكثر أمانًا، وصناعة أكثر كفاءة واستخدام أفضل للطاقة. في الطب، تشير منظمة الصحة العالمية إلى أن الذكاء الاصطناعي يُستخدم في التشخيص، وتطوير الأدوية، والاستجابة لتفشي الأمراض، داعية الدول إلى تعزيز هذه الابتكارات للجميع.
يقارن الاقتصاديون حتى انتشار الذكاء الاصطناعي السريع بثورات التكنولوجيا السابقة.
الفوائد الرئيسية للذكاء الاصطناعي
تحسين الرعاية الصحية
يمكن لأنظمة الذكاء الاصطناعي تحليل الأشعة السينية، والتصوير بالرنين المغناطيسي، وبيانات المرضى أسرع من البشر، مما يساعد في الكشف المبكر عن الأمراض والعلاج المخصص.
- يمكن للتصوير المدعوم بالذكاء الاصطناعي اكتشاف الأورام التي قد يغفل عنها الأطباء
- تشخيص أسرع وتوصيات علاجية
- طب مخصص بناءً على بيانات المريض
زيادة الكفاءة
تعزز العمليات الآلية في المصانع والمكاتب والخدمات الإنتاجية بشكل كبير.
- عمليات تصنيع أكثر كفاءة
- شبكات طاقة وإدارة موارد أذكى
- يمكن للبشر التركيز على الأعمال الإبداعية أو المعقدة
نقل أكثر أمانًا
تهدف تقنيات السيارات ذاتية القيادة والذكاء الاصطناعي لإدارة المرور إلى تقليل الحوادث والازدحام.
- أنظمة إنذار محسنة للكوارث
- لوجستيات وشحن محسّنان
- تقليل الأخطاء البشرية في النقل
حلول بيئية
يستخدم الباحثون الذكاء الاصطناعي لتحليل نماذج المناخ والبيانات الجينية، مما يساعد في مواجهة قضايا كبيرة مثل تغير المناخ.
- نمذجة المناخ والتنبؤ
- تصميم ذكاء اصطناعي موفر للطاقة يقلل الاستهلاك بنسبة 90%
- تطوير تقنيات مستدامة
تُظهر هذه الأمثلة أن الذكاء الاصطناعي ليس مجرد خيال علمي – بل يقدم قيمة حقيقية اليوم.
المخاطر والأخطار المحتملة للذكاء الاصطناعي

على الرغم من وعوده، يحذر العديد من الخبراء من أن الذكاء الاصطناعي يمكن أن يكون خطيرًا إذا أُسيء استخدامه أو تُرك دون رقابة. أحد المخاوف الرئيسية هو التحيز والتمييز. لأن الذكاء الاصطناعي يتعلم من البيانات الموجودة، فقد يرث تحيزات البشر.
بدون أخلاقيات صارمة، يخاطر الذكاء الاصطناعي بتكرار التحيزات والتمييز في العالم الحقيقي، مما يغذي الانقسامات ويهدد الحقوق والحريات الإنسانية الأساسية.
— اليونسكو
في الواقع، أظهرت الدراسات أن التعرف على الوجه غالبًا ما يخطئ في تحديد النساء أو الأشخاص من ذوي البشرة الملونة، ويمكن لخوارزميات التوظيف تفضيل جنس معين. وتشير بريتانيكا أيضًا إلى أن الذكاء الاصطناعي يمكن أن "يضر بالأقليات العرقية من خلال تكرار وتفاقم العنصرية".
المخاطر الكبرى للذكاء الاصطناعي
الخصوصية والمراقبة
غالبًا ما تتطلب أنظمة الذكاء الاصطناعي كميات هائلة من البيانات الشخصية (منشورات وسائل التواصل الاجتماعي، سجلات صحية، وغيرها). هذا يرفع خطر سوء الاستخدام. إذا استخدمت الحكومات أو الشركات الذكاء الاصطناعي لتحليل بياناتك بدون موافقة، فقد يؤدي ذلك إلى مراقبة متطفلة.
تحذر بريتانيكا من "مخاطر خصوصية خطيرة" من الذكاء الاصطناعي. على سبيل المثال، تم حظر استخدام مثير للجدل للذكاء الاصطناعي يسمى تقييم الائتمان الاجتماعي – حيث يتم تصنيف المواطنين بواسطة الخوارزميات – من قبل الاتحاد الأوروبي باعتباره ممارسة "غير مقبولة".
المعلومات المضللة والفيديوهات المزيفة
يمكن للذكاء الاصطناعي إنشاء نصوص وصور أو فيديوهات مزيفة واقعية. هذا يسهل إنشاء الفيديوهات المزيفة العميقة – مثل فيديوهات مزيفة للمشاهير أو تقارير إخبارية كاذبة.
تشير بريتانيكا إلى أن الذكاء الاصطناعي يمكن أن ينشر "معلومات مضللة سياسية، وحتى خطيرة". حذر الخبراء من أن هذه المزيفات قد تُستخدم للتلاعب بالانتخابات أو الرأي العام.
فقدان الوظائف والاضطرابات الاقتصادية
من خلال أتمتة المهام، سيحول الذكاء الاصطناعي مكان العمل. تشير تقارير صندوق النقد الدولي إلى أن حوالي 40% من الوظائف عالميًا (و60% في الدول المتقدمة) معرضة لأتمتة الذكاء الاصطناعي.
يشمل هذا ليس فقط العمل في المصانع بل أيضًا وظائف الطبقة الوسطى مثل المحاسبة أو الكتابة. بينما يمكن للذكاء الاصطناعي زيادة الإنتاجية (مما قد يرفع الأجور على المدى الطويل)، قد يحتاج العديد من العمال إلى تدريب جديد أو قد يعانوا من البطالة على المدى القصير.
الأمن والاستخدام الخبيث
مثل أي تقنية، يمكن استخدام الذكاء الاصطناعي لإلحاق الضرر. يستخدم مجرمو الإنترنت الذكاء الاصطناعي بالفعل لإنشاء رسائل تصيد إلكتروني مقنعة أو لفحص الأنظمة بحثًا عن نقاط ضعف.
يقلق الخبراء العسكريون بشأن الأسلحة المستقلة: الطائرات بدون طيار أو الروبوتات التي تختار الأهداف بدون موافقة بشرية.
بمعنى آخر، يمكن أن يكون نظام الذكاء الاصطناعي الذي يملك تحكمًا ماديًا (مثل سلاح) خطيرًا بشكل خاص إذا خرج عن السيطرة أو برمج بطريقة خبيثة.
فقدان السيطرة البشرية
يشير بعض المفكرين إلى أنه إذا أصبح الذكاء الاصطناعي أقوى بكثير مما هو عليه اليوم، فقد يتصرف بطرق غير متوقعة. بينما الذكاء الاصطناعي الحالي ليس واعيًا أو مدركًا لذاته، قد يسعى الذكاء الاصطناعي العام (AGI) في المستقبل لتحقيق أهداف لا تتوافق مع القيم الإنسانية.
حذر كبار علماء الذكاء الاصطناعي مؤخرًا من أن "أنظمة الذكاء الاصطناعي العامة القوية جدًا" قد تظهر في المستقبل القريب ما لم نستعد.
وصف الحائز على جائزة نوبل جيفري هينتون وخبراء آخرون خطرًا متزايدًا بأن الذكاء الاصطناعي قد يضر بالبشرية إذا لم يتم مواءمة الذكاء الاصطناعي المتقدم مع احتياجاتنا. رغم أن هذا الخطر غير مؤكد، فقد دفع إلى دعوات بارزة للحذر.
تأثير الطاقة والبيئة
يستهلك تدريب وتشغيل نماذج الذكاء الاصطناعي الكبيرة الكثير من الكهرباء. تشير اليونسكو إلى أن استهلاك الذكاء الاصطناعي التوليدي السنوي الآن يعادل استهلاك دولة أفريقية صغيرة – وهو في تزايد سريع.
قد يؤدي هذا إلى تفاقم تغير المناخ ما لم نستخدم طرقًا أكثر خضرة.
ما يقوله الخبراء والمسؤولون

نظرًا لهذه القضايا، تحدث العديد من القادة والباحثين. تشكل إجماع كبير من خبراء الذكاء الاصطناعي في السنوات الأخيرة.
أكدوا أن تطوير الذكاء الاصطناعي كان يتسارع "مع السلامة كأمر ثانوي"، وأننا نفتقر حاليًا إلى مؤسسات لمنع التطبيقات الخارجة عن السيطرة.
وجهات نظر قادة التكنولوجيا
سام ألتمان (الرئيس التنفيذي لشركة OpenAI)
ديميس هسابيس (Google DeepMind)
نحن في "سباق خارج عن السيطرة" لبناء ذكاء اصطناعي أكثر قوة حتى أن مبدعيه "لا يستطيعون فهمه أو التنبؤ به أو السيطرة عليه بشكل موثوق".
— رسالة مفتوحة وقعها أكثر من 1000 محترف في الذكاء الاصطناعي (بما في ذلك إيلون ماسك، ستيف وزنياك، والعديد من الباحثين)
ردود الحكومة والمنظمات الدولية
رد الحكومة الأمريكية
أصدر البيت الأبيض أمرًا تنفيذيًا في 2023 ينص على أن الذكاء الاصطناعي "يحمل إمكانات استثنائية لكل من الوعد والمخاطر" ويدعو إلى "استخدام مسؤول للذكاء الاصطناعي" من خلال جهد مجتمعي واسع لتخفيف مخاطره الكبيرة.
أصدر المعهد الوطني للمعايير والتكنولوجيا (NIST) إطار عمل إدارة مخاطر الذكاء الاصطناعي لتوجيه الشركات في بناء ذكاء اصطناعي موثوق.
قانون الذكاء الاصطناعي للاتحاد الأوروبي
أقر الاتحاد الأوروبي أول قانون للذكاء الاصطناعي في العالم (ساري المفعول 2024)، يحظر الممارسات الخطرة مثل التصنيف الاجتماعي الحكومي ويتطلب اختبارات صارمة للذكاء الاصطناعي عالي المخاطر (في الصحة، وإنفاذ القانون، وغيرها).
- يحظر ممارسات الذكاء الاصطناعي غير المقبولة
- متطلبات صارمة للأنظمة عالية المخاطر
- التزامات الشفافية للذكاء الاصطناعي العام
- غرامات ثقيلة على عدم الامتثال
التعاون العالمي
نشرت اليونسكو توصيات أخلاقية عالمية للذكاء الاصطناعي تدعو إلى العدالة والشفافية وحماية حقوق الإنسان في الذكاء الاصطناعي.
تعمل مجموعات مثل منظمة التعاون الاقتصادي والتنمية والأمم المتحدة على مبادئ للذكاء الاصطناعي (وقد وقعت عليها العديد من الدول). تشكل الشركات والجامعات معاهد تحالفات أمان الذكاء الاصطناعي للبحث في المخاطر طويلة الأمد.
الضمانات والتنظيم

لحسن الحظ، هناك العديد من الحلول قيد التنفيذ. الفكرة الأساسية هي "السلامة في تصميم الذكاء الاصطناعي". تبني الشركات قواعد أخلاقية في تطوير الذكاء الاصطناعي بشكل متزايد.
على سبيل المثال، تختبر مختبرات الذكاء الاصطناعي النماذج للتحيز قبل الإصدار وتضيف فلاتر محتوى لمنع المخرجات الصريحة أو الكاذبة. تقوم الحكومات والمؤسسات بتقنين ذلك.
أُطُر تنظيمية
تطوير غير مراقب
- لا توجد متطلبات لاختبار التحيز
- شفافية محدودة
- تدابير أمان غير متسقة
- حل المشكلات بشكل تفاعلي
إشراف منظم
- تدقيق التحيز الإلزامي
- متطلبات الشفافية
- مبادئ السلامة في التصميم
- إدارة المخاطر بشكل استباقي
تدابير الضمان الحالية
الحلول التقنية
تختبر مختبرات الذكاء الاصطناعي النماذج للتحيز قبل الإصدار وتضيف فلاتر محتوى لمنع المخرجات الصريحة أو الكاذبة. تصدر هيئات وضع المعايير إرشادات للمنظمات لتقييم وتخفيف مخاطر الذكاء الاصطناعي.
الأُطُر القانونية
يحظر قانون الذكاء الاصطناعي للاتحاد الأوروبي بعض الاستخدامات الخطرة تمامًا ويصنف استخدامات أخرى على أنها "عالية المخاطر" (تخضع للتدقيق). يدعو إطار أخلاقيات الذكاء الاصطناعي لليونسكو إلى تدقيق العدالة، وحماية الأمن السيبراني، وإجراءات شكاوى متاحة.
التعاون الصناعي
تشكل الشركات والجامعات معاهد تحالفات أمان الذكاء الاصطناعي للبحث في المخاطر طويلة الأمد. أصبح التعاون بين القطاعين العام والخاص في الأمن وحملات التوعية حول الفيديوهات المزيفة أمرًا شائعًا.
المشاركة العامة
حملات التوعية حول مخاطر وفوائد الذكاء الاصطناعي، بالإضافة إلى استفتاءات تسأل المواطنين عن مدى الاستقلالية التي يجب منحها للآلات، تضمن مشاركة ديمقراطية في حوكمة الذكاء الاصطناعي.
تسارع السلطات لتحديث قوانين خطاب الكراهية، وحقوق النشر، والخصوصية لتشمل المحتوى المولد بالذكاء الاصطناعي. كما أشار خبير من نيوزيلندا، فإن العديد من القوانين الحالية "لم تُصمم مع وضع الذكاء الاصطناعي التوليدي في الاعتبار"، لذا يلاحق المشرعون التطورات.
الخلاصة: منظور متوازن حول سلامة الذكاء الاصطناعي
فهل الذكاء الاصطناعي خطير؟ الجواب معقد. الذكاء الاصطناعي ليس شريرًا بطبيعته – إنه أداة صنعها البشر.
في أشكاله العملية العديدة اليوم، جلب فوائد هائلة للطب، والتعليم، والصناعة، وأكثر (كما أبرزت منظمات مثل اليونسكو والاتحاد الأوروبي).
وفي الوقت نفسه، يتفق الجميع تقريبًا على أن الذكاء الاصطناعي يمكن أن يكون خطيرًا إذا أُسيء استخدام قوته أو تُرك دون توجيه.
للمتعلمين الشباب
تدابير السلامة
تشمل المخاوف الشائعة انتهاكات الخصوصية، والتحيز، والمعلومات المضللة، واضطرابات الوظائف، والخطر الافتراضي للذكاء الاصطناعي الخارق الهارب.
مع وجود "حواجز أمان" مناسبة – تطوير أخلاقي للذكاء الاصطناعي، تنظيم قوي، ووعي عام – يمكننا توجيه الذكاء الاصطناعي نحو الأمان وضمان استفادة البشرية منه دون أن يصبح خطيرًا.