يشير الذكاء الاصطناعي (AI) إلى أنظمة الحاسوب التي تحاكي الذكاء البشري – على سبيل المثال، البرامج التي يمكنها التعرف على الصور، وفهم اللغة، أو اتخاذ القرارات. في الحياة اليومية، يدعم الذكاء الاصطناعي أدوات مثل المساعدين الصوتيين على الهواتف الذكية، وأنظمة التوصية على وسائل التواصل الاجتماعي، وحتى روبوتات الدردشة المتقدمة التي تكتب النصوص.

يمتلك الذكاء الاصطناعي القدرة على تحسين العديد من المجالات بشكل كبير، لكنه يثير أيضًا العديد من المخاوف.

فهل الذكاء الاصطناعي خطير؟ ستستعرض هذه المقالة الجانبين: الفوائد الحقيقية التي يقدمها الذكاء الاصطناعي والمخاطر التي يسلط الخبراء الضوء عليها.

الفوائد الحقيقية للذكاء الاصطناعي في العالم الواقعي

صورة: تصوير ودود للروبوتات وشخص يعملون معًا يرمز إلى مساعدة الذكاء الاصطناعي للبشر. الذكاء الاصطناعي مدمج بالفعل في العديد من التطبيقات المفيدة.

على سبيل المثال، تشير اليونسكو إلى أن الذكاء الاصطناعي “خلق العديد من الفرص” على مستوى العالم – من تشخيصات طبية أسرع إلى تحسين التواصل عبر وسائل التواصل الاجتماعي وأتمتة المهام الروتينية المملة.

كما يبرز الاتحاد الأوروبي أن “الذكاء الاصطناعي الموثوق به يمكن أن يجلب العديد من الفوائد” مثل تحسين الرعاية الصحية، زيادة أمان النقل، و رفع كفاءة الصناعة واستخدام الطاقة. في المجال الطبي، تفيد منظمة الصحة العالمية بأن الذكاء الاصطناعي يُستخدم في التشخيص، وتطوير الأدوية، والاستجابة لتفشي الأمراض، داعية الدول إلى تعزيز هذه الابتكارات للجميع.

يقارن الاقتصاديون انتشار الذكاء الاصطناعي السريع بثورات التكنولوجيا السابقة.

على سبيل المثال، تؤكد الحكومة الأمريكية أن “الذكاء الاصطناعي يحمل إمكانات استثنائية لكل من الفرص والمخاطر”، مما يعني أنه يجب علينا تسخير قوته لحل مشكلات مثل تغير المناخ أو الأمراض، مع الانتباه أيضًا للمخاطر.

تشمل الفوائد الرئيسية للذكاء الاصطناعي:

  • تحسين الرعاية الصحية: يمكن لأنظمة الذكاء الاصطناعي تحليل الأشعة السينية، والتصوير بالرنين المغناطيسي، وبيانات المرضى بسرعة أكبر من البشر، مما يساعد في الكشف المبكر عن الأمراض والعلاج المخصص. على سبيل المثال، يمكن للتصوير المدعوم بالذكاء الاصطناعي اكتشاف الأورام التي قد يغفلها الأطباء.
  • زيادة الكفاءة: تعمل العمليات الآلية في المصانع والمكاتب والخدمات على تعزيز الإنتاجية. كما يشير الاتحاد الأوروبي، تؤدي الأتمتة المدفوعة بالذكاء الاصطناعي إلى “تصنيع أكثر كفاءة” وحتى شبكات طاقة أكثر ذكاءً.
    يتولى الروبوتات والبرمجيات المهام المتكررة حتى يتمكن البشر من التركيز على الأعمال الإبداعية أو المعقدة.
  • نقل وخدمات أكثر أمانًا: تهدف تقنيات السيارات ذاتية القيادة والذكاء الاصطناعي لإدارة المرور إلى تقليل الحوادث والازدحام. يمكن للذكاء الاصطناعي الذكي أيضًا تحسين أنظمة الإنذار بالكوارث وتحسين اللوجستيات، مما يجعل السفر والشحن أكثر أمانًا.
  • المساعدة العلمية والبيئية: يستخدم الباحثون الذكاء الاصطناعي لتحليل نماذج المناخ والبيانات الجينية. يساعد هذا في مواجهة قضايا كبيرة مثل تغير المناخ: تفيد اليونسكو أن حتى التعديلات الصغيرة في تصميم الذكاء الاصطناعي يمكن أن تقلل من استهلاكه للطاقة بشكل كبير، مما يجعله أكثر استدامة كأداة مناخية.
  • التعليم وإتاحة الوصول: يمكن للمعلمين المدعومين بالذكاء الاصطناعي تخصيص التعلم لكل طالب، وتساعد أدوات التعرف على الصوت أو الترجمة الأشخاص ذوي الإعاقات. تشير بريتانيكا إلى أن الذكاء الاصطناعي حتى “يساعد الفئات المهمشة من خلال توفير إمكانية الوصول” (مثل مساعدي القراءة للمكفوفين).

تُظهر هذه الأمثلة أن الذكاء الاصطناعي ليس مجرد خيال علمي – بل يقدم قيمة حقيقية اليوم.

الفوائد الحقيقية للذكاء الاصطناعي في العالم الواقعي

المخاطر والأخطار المحتملة للذكاء الاصطناعي

صورة: فن شارع لكلمة “روبوت” يحذر من تأثيرات الذكاء الاصطناعي غير المعروفة. على الرغم من وعوده، يحذر العديد من الخبراء من أن الذكاء الاصطناعي يمكن أن يكون خطيرًا إذا أُسيء استخدامه أو تُرك دون رقابة. أحد المخاوف الرئيسية هو التحيز والتمييز. لأن الذكاء الاصطناعي يتعلم من البيانات الموجودة، فقد يرث تحيزات البشر.

تحذر اليونسكو من أنه بدون أخلاقيات صارمة، فإن الذكاء الاصطناعي “يخاطر بإعادة إنتاج التحيزات والتمييزات الواقعية، مما يغذي الانقسامات ويهدد الحقوق والحريات الإنسانية الأساسية”. بالفعل، أظهرت الدراسات أن التعرف على الوجه غالبًا ما يخطئ في تحديد النساء أو الأشخاص من ذوي البشرة الملونة، وقد تفضل خوارزميات التوظيف جنسًا معينًا.

تشير بريتانيكا أيضًا إلى أن الذكاء الاصطناعي يمكن أن “يضر بالأقليات العرقية من خلال تكرار وتفاقم العنصرية”.

تشمل الأخطار الأخرى:

  • الخصوصية والمراقبة: غالبًا ما تتطلب أنظمة الذكاء الاصطناعي كميات هائلة من البيانات الشخصية (منشورات وسائل التواصل الاجتماعي، السجلات الصحية، وغيرها). هذا يرفع خطر الإساءة. إذا استخدمت الحكومات أو الشركات الذكاء الاصطناعي لتحليل بياناتك دون موافقة، فقد يؤدي ذلك إلى مراقبة متطفلة.

    تحذر بريتانيكا من “مخاطر خطيرة على الخصوصية” ناجمة عن الذكاء الاصطناعي. على سبيل المثال، تم حظر استخدام مثير للجدل للذكاء الاصطناعي يُعرف بـ تقييم الائتمان الاجتماعي – حيث يتم تقييم المواطنين بواسطة خوارزميات – من قبل الاتحاد الأوروبي باعتباره ممارسة “غير مقبولة”.
    حتى روبوتات الدردشة المعروفة أثارت مخاوف: ففي 2023، حظرت إيطاليا مؤقتًا ChatGPT بسبب قضايا تتعلق بخصوصية البيانات.

  • المعلومات المضللة والفيديوهات المزيفة (Deepfakes): يمكن للذكاء الاصطناعي إنشاء نصوص وصور وفيديوهات مزيفة واقعية. هذا يسهل إنشاء فيديوهات مزيفة – مثل فيديوهات مزيفة للمشاهير أو تقارير إخبارية كاذبة.

    تشير بريتانيكا إلى أن الذكاء الاصطناعي يمكن أن ينشر “معلومات مضللة سياسية، بل وخطيرة”. حذر الخبراء من أن هذه المزيفات قد تُستخدم للتلاعب بالانتخابات أو الرأي العام.

    في حادثة واحدة، انتشرت صور مولدة بالذكاء الاصطناعي لقادة عالميين يشاركون عناوين أخبار كاذبة قبل أن يتم دحضها. يشير العلماء إلى أنه بدون تنظيم، قد تتصاعد المعلومات المضللة المدفوعة بالذكاء الاصطناعي (مثل الخطب المزيفة أو الصور المعدلة التي لا توجد قوانين حالية جاهزة لمراقبتها).

  • فقدان الوظائف والاضطرابات الاقتصادية: من خلال أتمتة المهام، سيغير الذكاء الاصطناعي مكان العمل. يشير صندوق النقد الدولي إلى أن حوالي 40% من الوظائف عالميًا (و60% في الدول المتقدمة) معرضة لأتمتة الذكاء الاصطناعي. وهذا يشمل ليس فقط العمل في المصانع بل أيضًا وظائف الطبقة الوسطى مثل المحاسبة أو الكتابة.
    بينما يمكن للذكاء الاصطناعي تعزيز الإنتاجية (مما قد يرفع الأجور على المدى الطويل)، قد يحتاج العديد من العمال إلى تدريب جديد أو قد يعانوا من البطالة على المدى القصير.
    يعترف قادة التكنولوجيا بهذا القلق: حتى الرئيس التنفيذي لمايكروسوفت قال إن الذكاء الاصطناعي قد يحل محل المهنيين المهرة فجأة.

  • الأمن والاستخدام الخبيث: مثل أي تقنية، يمكن استخدام الذكاء الاصطناعي لإلحاق الضرر. يستخدم مجرمو الإنترنت الذكاء الاصطناعي بالفعل لإنشاء رسائل تصيد إلكتروني مقنعة أو لفحص الأنظمة بحثًا عن نقاط ضعف.

    يخشى الخبراء العسكريون من الأسلحة المستقلة: الطائرات بدون طيار أو الروبوتات التي تختار الأهداف دون موافقة بشرية.
    حذر تقرير حديث من باحثي الذكاء الاصطناعي صراحة من أننا نفتقر إلى مؤسسات توقف “الفاعلين المتهورين... الذين قد ينشرون أو يسعون إلى قدرات بطرق خطيرة”، مثل أنظمة الهجوم المستقلة.

    بمعنى آخر، يمكن أن يكون نظام الذكاء الاصطناعي الذي يملك السيطرة الفيزيائية (مثل سلاح) خطيرًا بشكل خاص إذا خرج عن السيطرة أو تم برمجته بنية خبيثة.

  • فقدان السيطرة البشرية: يشير بعض المفكرين إلى أنه إذا أصبح الذكاء الاصطناعي أقوى بكثير مما هو عليه اليوم، فقد يتصرف بطرق غير متوقعة. بينما الذكاء الاصطناعي الحالي ليس واعيًا أو مدركًا لذاته، فإن الذكاء الاصطناعي العام (AGI) في المستقبل قد يسعى لتحقيق أهداف لا تتوافق مع القيم الإنسانية.

    حذر كبار علماء الذكاء الاصطناعي مؤخرًا من أن “أنظمة الذكاء الاصطناعي العامة القوية جدًا” قد تظهر في المستقبل القريب ما لم نستعد.

    وصف الحائز على جائزة نوبل جيفري هينتون وخبراء آخرون خطرًا متزايدًا بأن الذكاء الاصطناعي قد يضر بالبشرية إذا لم يتم مواءمة الذكاء الاصطناعي المتقدم مع احتياجاتنا. رغم أن هذا الخطر غير مؤكد، فقد دفع إلى دعوات بارزة للحذر.

  • الأثر البيئي واستهلاك الطاقة: يتطلب تدريب وتشغيل نماذج الذكاء الاصطناعي الكبيرة الكثير من الكهرباء. تفيد اليونسكو أن استهلاك الطاقة السنوي للذكاء الاصطناعي التوليدي يعادل الآن استهلاك دولة أفريقية صغيرة – وهو في تزايد سريع.

    قد يؤدي هذا إلى تفاقم تغير المناخ ما لم نستخدم طرقًا أكثر خضرة.

    الخبر السار هو أن الباحثين يجدون حلولًا: تظهر دراسة لليونسكو أن استخدام نماذج أصغر وأكثر كفاءة لمهام محددة يمكن أن يقلل استهلاك الطاقة للذكاء الاصطناعي بنسبة 90% دون فقدان الدقة.

باختصار، تأتي المخاطر الحقيقية للذكاء الاصطناعي اليوم في الغالب من كيفية استخدام الناس له. إذا أُدير الذكاء الاصطناعي بعناية، فإن فوائده (الصحة، الراحة، الأمان) هائلة.

لكن إذا تُرك دون رقابة، فقد يمكن الذكاء الاصطناعي من التحيز والجريمة والحوادث.

الخيط المشترك في هذه المخاطر هو غياب السيطرة أو الإشراف: أدوات الذكاء الاصطناعي قوية وسريعة، لذا تحدث الأخطاء أو سوء الاستخدام على نطاق واسع ما لم نتدخل.

المخاطر والأخطار المحتملة للذكاء الاصطناعي

ماذا يقول الخبراء والمسؤولون

نظرًا لهذه القضايا، تحدث العديد من القادة والباحثين. تشكل إجماع كبير من خبراء الذكاء الاصطناعي في السنوات الأخيرة.

في عام 2024، نشر مجموعة من 25 من كبار علماء الذكاء الاصطناعي (من أكسفورد، بيركلي، الحاصلين على جائزة تورينج، وغيرهم) بيان إجماع يدعو إلى اتخاذ إجراءات عاجلة.

حذروا حكومات العالم من الاستعداد الآن: “إذا قللنا من مخاطر الذكاء الاصطناعي، فقد تكون العواقب كارثية”، ودعوا إلى تمويل أبحاث سلامة الذكاء الاصطناعي وإنشاء هيئات تنظيمية للإشراف على الذكاء الاصطناعي القوي.

أكدوا أن تطوير الذكاء الاصطناعي كان يتسارع “مع اعتبار السلامة أمرًا ثانويًا” وأننا نفتقر حاليًا إلى مؤسسات لمنع التطبيقات الخارجة عن السيطرة.

يكرر قادة التكنولوجيا هذا التحذير. قال سام ألتمان، الرئيس التنفيذي لشركة OpenAI – التي أنشأت ChatGPT – لـ نيويورك تايمز إن بناء الذكاء الاصطناعي المتقدم يشبه “مشروع مانهاتن” للعصر الرقمي.

اعترف بأن نفس الأدوات التي يمكنها كتابة المقالات أو البرمجة قد تسبب “سوء استخدام، وحوادث كارثية واضطرابات اجتماعية” إذا لم تُدار بحذر.

في أواخر 2023، وقع أكثر من 1000 محترف في مجال الذكاء الاصطناعي (بما في ذلك إيلون ماسك، وستيف وزنياك مؤسس أبل، والعديد من الباحثين) رسالة مفتوحة تدعو إلى وقف مؤقت لتدريب نماذج الذكاء الاصطناعي من الجيل التالي.

حذروا من أننا في “سباق خارج عن السيطرة” لبناء ذكاء اصطناعي أقوى لا يستطيع حتى مبتكروه “فهمه أو التنبؤ به أو السيطرة عليه بشكل موثوق”.

في المنتديات العامة، أكد الخبراء على مخاطر محددة. جادل ديميس هسابيس، الرئيس التنفيذي لشركة Google DeepMind، بأن أكبر تهديد ليس البطالة بل سوء الاستخدام: مجرم إلكتروني أو دولة مارقة تستخدم الذكاء الاصطناعي لإلحاق الضرر بالمجتمع.

أشار إلى أن الذكاء الاصطناعي قد يضاهي أو يتجاوز الذكاء البشري قريبًا، و “قد يعيد الفاعل السيء توظيف نفس التقنيات لأغراض ضارة”.

بمعنى آخر، حتى إذا تعاملنا مع فقدان الوظائف، يجب أن نمنع وصول أدوات الذكاء الاصطناعي إلى الأيدي الخطأ.

تلاحظ الحكومات والهيئات الدولية ذلك. أصدرت البيت الأبيض (الولايات المتحدة) أمرًا تنفيذيًا في 2023 ينص على أن الذكاء الاصطناعي “يحمل إمكانات استثنائية لكل من الفرص والمخاطر” ويدعو إلى “استخدام مسؤول للذكاء الاصطناعي” من خلال جهد مجتمعي واسع لتقليل مخاطره الكبيرة.

أقر الاتحاد الأوروبي أول قانون للذكاء الاصطناعي في العالم (ساري المفعول 2024)، يحظر الممارسات الخطرة مثل التقييم الاجتماعي الحكومي ويتطلب اختبارات صارمة للذكاء الاصطناعي عالي المخاطر (في الصحة، وإنفاذ القانون، وغيرها).

نشرت اليونسكو (وكالة الأمم المتحدة للتعليم والثقافة) توصيات أخلاقية عالمية للذكاء الاصطناعي تدعو إلى العدالة والشفافية وحماية حقوق الإنسان في الذكاء الاصطناعي.

حتى منظمات السياسات العلمية مثل NIST (المعهد الوطني الأمريكي للمعايير) أصدرت إطار إدارة مخاطر الذكاء الاصطناعي لتوجيه الشركات حول بناء ذكاء اصطناعي موثوق.

تتفق كل هذه الأصوات على نقطة واحدة: الذكاء الاصطناعي لن يتوقف من تلقاء نفسه. يجب علينا تطوير الضمانات. يشمل ذلك الإصلاحات التقنية (تدقيق التحيز، اختبار الأمان) وقوانين جديدة أو هيئات إشراف.

على سبيل المثال، ينظر المشرعون في جميع أنحاء العالم في إنشاء مجالس سلامة للذكاء الاصطناعي، مشابهة لتلك الخاصة بالتكنولوجيا النووية.

الهدف ليس إيقاف الابتكار، بل ضمان حدوثه ضمن إرشادات دقيقة.

ماذا يقول الخبراء والمسؤولون

الضمانات والتنظيم

لحسن الحظ، هناك العديد من الحلول قيد التنفيذ بالفعل. الفكرة الأساسية هي “السلامة في تصميم الذكاء الاصطناعي”. تقوم الشركات بشكل متزايد بدمج قواعد أخلاقية في تطوير الذكاء الاصطناعي.

على سبيل المثال، تختبر مختبرات الذكاء الاصطناعي النماذج للتحقق من التحيز قبل الإصدار وتضيف فلاتر محتوى لمنع المخرجات الصريحة أو الكاذبة. تحاول الحكومات والمؤسسات تقنين ذلك.

يحظر قانون الذكاء الاصطناعي للاتحاد الأوروبي، على سبيل المثال، بعض الاستخدامات الخطرة تمامًا ويصنف استخدامات أخرى على أنها “عالية المخاطر” (تخضع للتدقيق).

وبالمثل، يدعو إطار أخلاقيات الذكاء الاصطناعي لليونسكو إلى إجراءات مثل تدقيق العدالة، وحماية الأمن السيبراني، وعمليات تقديم الشكاوى المتاحة.

على المستوى العملي، تصدر هيئات وضع المعايير إرشادات.

يوفر إطار NIST الأمريكي الذي ذكرناه معايير طوعية للمنظمات لتقييم وتقليل مخاطر الذكاء الاصطناعي.

على المستوى الدولي، تعمل مجموعات مثل منظمة التعاون الاقتصادي والتنمية والأمم المتحدة على مبادئ للذكاء الاصطناعي (وقد وقعت عليها العديد من الدول).

حتى الشركات والجامعات تشكل معاهد تحكم سلامة الذكاء الاصطناعي وائتلافات للبحث في المخاطر طويلة الأمد.

بالإضافة إلى ذلك، تتناول العديد من اللوائح الحالية الأضرار المحددة.

على سبيل المثال، تُطبق قوانين حماية المستهلك على الذكاء الاصطناعي.

كشفت وثائق داخلية لشركة ميتا عن روبوتات دردشة تستخدم الذكاء الاصطناعي في مضايقة الأطفال، مما أثار غضب المنظمين (ولم يُسمح باستخدام أداة ميتا بموجب قوانين حماية الطفل الحالية).

تسارع السلطات لتحديث قوانين خطاب الكراهية، وحقوق النشر، والخصوصية لتشمل المحتوى الذي يولده الذكاء الاصطناعي.

كما أشار خبير من نيوزيلندا، العديد من القوانين الحالية “لم تُصمم مع وضع الذكاء الاصطناعي التوليدي في الاعتبار” لذا يحاول المشرعون اللحاق بالركب.

الاتجاه العام واضح: يُعامل الذكاء الاصطناعي بطريقة مشابهة للتقنيات ذات الاستخدام المزدوج الأخرى.

تمامًا كما لدينا قوانين المرور للسيارات أو معايير السلامة للمواد الكيميائية، بدأ المجتمع في إنشاء حواجز أمان للذكاء الاصطناعي.

تشمل هذه: أبحاث مستمرة حول مخاطر الذكاء الاصطناعي، تعاونًا بين القطاعين العام والخاص في الأمن، حملات توعية حول الفيديوهات المزيفة، وحتى استفتاءات تسأل المواطنين عن مدى الاستقلالية التي يجب منحها للآلات.

>>>تعرف أكثر:

هل ستستبدل الذكاء الاصطناعي البشر؟

هل يفكر الذكاء الاصطناعي مثل البشر؟

الضمانات والتنظيم للذكاء الاصطناعي


إذًا، هل الذكاء الاصطناعي خطير؟ الجواب معقد. الذكاء الاصطناعي ليس شريرًا بطبيعته – إنه أداة صنعها البشر.

في أشكاله العملية العديدة اليوم، جلب فوائد كبيرة للطب، والتعليم، والصناعة، وأكثر (كما أبرزت منظمات مثل اليونسكو والاتحاد الأوروبي).

وفي الوقت نفسه، يتفق الجميع تقريبًا على أن الذكاء الاصطناعي يمكن أن يكون خطيرًا إذا أُسيء استخدام قوته أو تُرك دون توجيه.

تشمل المخاوف الشائعة انتهاكات الخصوصية، والتحيز، والمعلومات المضللة، واضطرابات الوظائف، والخطر الافتراضي للذكاء الاصطناعي الفائق الخارج عن السيطرة.

ينبغي للشباب الذين يتعلمون عن الذكاء الاصطناعي أن يركزوا على كلا الجانبين. من الحكمة أن يكونوا واعين للمخاطر الحقيقية: على سبيل المثال، لا تثق بالذكاء الاصطناعي بشكل أعمى أو تشارك بياناتك الخاصة دون حذر.

لكن من المهم أيضًا أن نرى أن الخبراء والحكومات يعملون بنشاط لجعل الذكاء الاصطناعي أكثر أمانًا – من خلال تطوير قوانين (مثل قانون الذكاء الاصطناعي للاتحاد الأوروبي)، وإرشادات (مثل توصيات اليونسكو الأخلاقية)، وتقنيات (مثل كشف التحيز) لرصد المشكلات مبكرًا.

باختصار، الذكاء الاصطناعي مثل أي تقنية قوية: يمكن أن يحقق خيرًا عظيمًا عند استخدامه بمسؤولية، وقد يسبب ضررًا إذا أُسيء استخدامه.

الإجماع بين العلماء وصانعي السياسات هو أننا لا يجب أن نثير الذعر أو نتجاهل الذكاء الاصطناعي، بل يجب أن نبقى على اطلاع ونشارك في تشكيل مستقبله.

مع وجود “حواجز أمان” مناسبة – تطوير أخلاقي للذكاء الاصطناعي، تنظيم قوي، ووعي عام – يمكننا توجيه الذكاء الاصطناعي نحو الأمان وضمان استفادة البشرية منه دون أن يصبح خطيرًا.

المراجع الخارجية
تم إعداد هذا المقال بالرجوع إلى المصادر الخارجية التالية: