مخاطر استخدام الذكاء الاصطناعي

يجلب الذكاء الاصطناعي (AI) العديد من الفوائد ولكنه يطرح أيضًا العديد من المخاطر إذا تم إساءة استخدامه أو استخدامه بدون رقابة. من قضايا أمان البيانات، وتشويه المعلومات، وانتهاك حقوق النشر إلى خطر استبدال العمالة، يواجه الذكاء الاصطناعي تحديات تحتاج إلى التعرف عليها وإدارتها بفعالية. فهم مخاطر استخدام الذكاء الاصطناعي يساعد الأفراد والشركات على تطبيق التكنولوجيا بأمان واستدامة.

أصبح الذكاء الاصطناعي (AI) الآن جزءًا لا يتجزأ من كل شيء بدءًا من مساعدي الهواتف الذكية وخلاصات وسائل التواصل الاجتماعي إلى الرعاية الصحية والنقل. تجلب هذه التقنيات فوائد غير مسبوقة، لكنها تأتي أيضًا مع مخاطر وتحديات كبيرة.

تحذير هام: يحذر الخبراء والمؤسسات العالمية من أنه بدون ضوابط أخلاقية مناسبة، يمكن للذكاء الاصطناعي أن يعيد إنتاج التحيزات والتمييز الواقعي، ويساهم في الضرر البيئي، ويهدد حقوق الإنسان، ويزيد من التفاوتات القائمة.

في هذا المقال، دعونا نستكشف مع INVIAI مخاطر استخدام الذكاء الاصطناعي عبر جميع المجالات وأنواع الذكاء الاصطناعي – من روبوتات الدردشة والخوارزميات إلى الروبوتات – استنادًا إلى رؤى من مصادر رسمية ودولية.

فهرس المحتويات

التحيز والتمييز في أنظمة الذكاء الاصطناعي

أحد المخاطر الرئيسية للذكاء الاصطناعي هو ترسيخ التحيز والتمييز غير العادل. تتعلم نماذج الذكاء الاصطناعي من بيانات قد تعكس تحاملات أو تفاوتات تاريخية؛ ونتيجة لذلك، قد يعامل نظام الذكاء الاصطناعي الأشخاص بشكل مختلف بناءً على العرق أو الجنس أو خصائص أخرى بطرق تعزز الظلم.

يمكن للذكاء الاصطناعي العام المعطل أن يسبب ضررًا من خلال قرارات متحيزة تتعلق بخصائص محمية مثل العرق، الجنس، الثقافة، العمر، والإعاقة.

— تقرير السلامة الدولي للذكاء الاصطناعي
تأثير واقعي: أدت الخوارزميات المتحيزة المستخدمة في التوظيف والإقراض أو الشرطة إلى نتائج غير متساوية تضر بمجموعات معينة بشكل غير عادل.

تحذر الهيئات العالمية مثل اليونسكو من أنه بدون تدابير للعدالة، يخاطر الذكاء الاصطناعي بـ "إعادة إنتاج التحيزات والتمييز الواقعي، وتأجيج الانقسامات وتهديد الحقوق والحريات الإنسانية الأساسية". ضمان تدريب أنظمة الذكاء الاصطناعي على بيانات متنوعة وتمثيلية وتدقيقها للكشف عن التحيز أمر ضروري لمنع التمييز الآلي.

التحيز في التوظيف

قد تميز أدوات التوظيف بالذكاء الاصطناعي ضد بعض الفئات السكانية

التمييز في الإقراض

قد ترفض الخوارزميات المالية القروض بشكل غير عادل بناءً على خصائص محمية

عدم المساواة في الشرطة

قد تعزز الشرطة التنبؤية التحيزات القائمة في إنفاذ القانون

التحيز والتمييز في أنظمة الذكاء الاصطناعي
التحيز والتمييز في أنظمة الذكاء الاصطناعي

مخاطر المعلومات المضللة والفيديوهات المزيفة

أثارت قدرة الذكاء الاصطناعي على توليد نصوص وصور وفيديوهات فائقة الواقعية مخاوف من فيضان المعلومات المضللة. يمكن للذكاء الاصطناعي التوليدي إنتاج مقالات أخبار مزيفة مقنعة، وصور مزيفة، أو فيديوهات مزيفة يصعب تمييزها عن الواقع.

تنبيه عالمي للمخاطر: يحدد تقرير المخاطر العالمية 2024 للمنتدى الاقتصادي العالمي "المعلومات المُحرّفة والمزيفة" كأشد المخاطر العالمية قصيرة الأجل، مشيرًا إلى أن الذكاء الاصطناعي "يزيد من تضخيم المعلومات المُحرّفة والمشوهة التي قد تزعزع استقرار المجتمعات".

في الواقع، تشكل المعلومات المضللة والمزيفة التي يغذيها الذكاء الاصطناعي أحد "أكبر التحديات على الإطلاق للعملية الديمقراطية" – خاصة مع وجود مليارات الأشخاص الذين سيصوتون في الانتخابات القادمة. يمكن استخدام الوسائط الاصطناعية مثل الفيديوهات المزيفة وأصوات الذكاء الاصطناعي المستنسخة كسلاح لنشر الدعاية، وانتحال شخصيات عامة، أو ارتكاب الاحتيال.

الفيديوهات المزيفة

فيديوهات مزيفة فائقة الواقعية يمكنها انتحال أي شخص، قد تُستخدم في الاحتيال أو التلاعب السياسي.

استنساخ الصوت

نسخ صوتية مولدة بالذكاء الاصطناعي يمكنها تقليد أنماط كلام أي شخص لأغراض خادعة.

يحذر المسؤولون من أن الجهات الخبيثة يمكنها استغلال الذكاء الاصطناعي في حملات تضليل واسعة النطاق، مما يسهل إغراق الشبكات الاجتماعية بمحتوى مزيف وزرع الفوضى. الخطر هو بيئة معلوماتية ساخرة لا يستطيع المواطنون الوثوق بما يرونه أو يسمعونه، مما يقوض الخطاب العام والديمقراطية.

مخاطر المعلومات المضللة والفيديوهات المزيفة في الذكاء الاصطناعي
مخاطر المعلومات المضللة والفيديوهات المزيفة في الذكاء الاصطناعي

تهديدات الخصوصية والمراقبة الشاملة

يثير الاستخدام الواسع للذكاء الاصطناعي مخاوف جدية بشأن الخصوصية. غالبًا ما تتطلب أنظمة الذكاء الاصطناعي كميات هائلة من البيانات الشخصية – من وجوهنا وأصواتنا إلى عادات التسوق والموقع – لتعمل بفعالية. بدون ضوابط قوية، يمكن إساءة استخدام هذه البيانات أو استغلالها.

تحذير اليونسكو: لا ينبغي استخدام أنظمة الذكاء الاصطناعي لأغراض التقييم الاجتماعي أو المراقبة الشاملة. تُعتبر هذه الاستخدامات مخاطر غير مقبولة على نطاق واسع.

على سبيل المثال، يمكن أن تمكّن تقنيات التعرف على الوجه والخوارزميات التنبؤية من المراقبة الشاملة، وتتبع كل حركة للأفراد أو تقييم سلوكهم بدون موافقة.

التعرف على الوجه

تتبع مستمر للأفراد في الأماكن العامة

  • تتبع الهوية
  • تحليل السلوك

التحليلات التنبؤية

تحليل الذكاء الاصطناعي للكشف عن تفاصيل شخصية حميمة

  • الحالة الصحية
  • المعتقدات السياسية

التقييم الاجتماعي

تقييم المواطنين بناءً على أنماط السلوك

  • تقييم الائتمان
  • الامتثال الاجتماعي

الخصوصية حق أساسي لحماية كرامة الإنسان واستقلاليته ووكالته ويجب احترامه طوال دورة حياة نظام الذكاء الاصطناعي.

— وكالات حماية البيانات

إذا تجاوز تطوير الذكاء الاصطناعي تنظيمات الخصوصية، قد يفقد الأفراد السيطرة على معلوماتهم الخاصة. يجب على المجتمع ضمان وجود حوكمة بيانات قوية، وآليات موافقة، وتقنيات تحافظ على الخصوصية حتى لا تتحول تقنيات الذكاء الاصطناعي إلى أدوات مراقبة غير خاضعة للرقابة.

تهديدات الخصوصية والمراقبة الشاملة
تهديدات الخصوصية والمراقبة الشاملة

إخفاقات السلامة والأضرار غير المقصودة

بينما يمكن للذكاء الاصطناعي أتمتة القرارات والمهام البدنية بكفاءة تفوق البشر، يمكنه أيضًا الفشل بطرق غير متوقعة، مما يؤدي إلى أضرار في العالم الحقيقي. نثق في الذكاء الاصطناعي بمسؤوليات حرجة متزايدة – مثل قيادة السيارات، وتشخيص المرضى، أو إدارة شبكات الطاقة – لكن هذه الأنظمة ليست معصومة من الخطأ.

يمكن أن تتسبب الأعطال، أو بيانات التدريب المعيبة، أو الحالات غير المتوقعة في ارتكاب الذكاء الاصطناعي لأخطاء خطيرة. قد يخطئ الذكاء الاصطناعي في سيارة ذاتية القيادة في التعرف على أحد المشاة، أو يوصي الذكاء الاصطناعي الطبي بعلاج خاطئ، مع عواقب قد تكون مميتة.

المركبات الذاتية القيادة

خطأ في التعرف على المشاة أو العقبات يؤدي إلى حوادث

الذكاء الاصطناعي الطبي

تشخيصات أو توصيات علاجية خاطئة قد تكون مهددة للحياة

إدارة شبكات الطاقة

أعطال النظام تسبب انقطاعات واسعة أو أضرار بالبنية التحتية

يجب تجنب ومعالجة الأضرار غير المرغوبة (مخاطر السلامة)، وكذلك الثغرات الأمنية (مخاطر الأمان) طوال دورة حياة أنظمة الذكاء الاصطناعي لضمان سلامة وأمن الإنسان والبيئة والنظام البيئي.

— إرشادات الذكاء الاصطناعي الدولية
مبدأ حاسم: لا ينبغي تفويض قرارات الحياة والموت إلى أنظمة الذكاء الاصطناعي. الحفاظ على الإشراف البشري أمر بالغ الأهمية في التطبيقات عالية المخاطر.

بعبارة أخرى، يجب اختبار أنظمة الذكاء الاصطناعي بدقة، ومراقبتها، وبناؤها مع آليات أمان لتقليل فرص الأعطال. الاعتماد المفرط على الذكاء الاصطناعي قد يكون خطيرًا أيضًا – إذا بدأ البشر يثقون بالقرارات الآلية بشكل أعمى، فقد لا يتدخلون في الوقت المناسب عند حدوث خطأ.

لذلك، فإن ضمان الإشراف البشري أمر حاسم. في الاستخدامات عالية المخاطر (مثل الرعاية الصحية أو النقل)، يجب أن تظل القرارات النهائية خاضعة للحكم البشري. الحفاظ على السلامة والموثوقية في الذكاء الاصطناعي تحدٍ مستمر، يتطلب تصميمًا دقيقًا وثقافة مسؤولية من مطوري الذكاء الاصطناعي.

إخفاقات السلامة والأضرار غير المقصودة في الذكاء الاصطناعي
إخفاقات السلامة والأضرار غير المقصودة في الذكاء الاصطناعي

فقدان الوظائف والاضطرابات الاقتصادية

تأثير الذكاء الاصطناعي التحويلي على الاقتصاد هو سيف ذو حدين. من جهة، يمكن للذكاء الاصطناعي زيادة الإنتاجية وخلق صناعات جديدة بالكامل؛ ومن جهة أخرى، يشكل خطر فقدان ملايين الوظائف بسبب الأتمتة.

العديد من الوظائف – خاصة تلك التي تتضمن مهام روتينية ومتكررة أو بيانات سهلة التحليل – معرضة لأن تحل محلها خوارزميات الذكاء الاصطناعي والروبوتات.

توقع مقلق: يتوقع المنتدى الاقتصادي العالمي أن يتم فقدان اثنين وتسعين مليون وظيفة بحلول عام 2030 بسبب الذكاء الاصطناعي والتقنيات ذات الصلة.
القوى العاملة الحالية

الوظائف التقليدية

  • مهام روتينية ومتكررة
  • أدوار تحليل البيانات
  • وظائف العمل اليدوي
  • خدمة العملاء الأساسية
اقتصاد مدفوع بالذكاء الاصطناعي

متطلبات مهارات جديدة

  • مهارات التعاون مع الذكاء الاصطناعي
  • حل المشكلات الإبداعي
  • إدارة الذكاء الاصطناعي التقنية
  • الخدمات التي تركز على الإنسان

بينما قد يخلق الاقتصاد أيضًا أدوارًا جديدة (ربما أكثر من الوظائف المفقودة على المدى الطويل)، سيكون الانتقال مؤلمًا لكثيرين. غالبًا ما تتطلب الوظائف المكتسبة مهارات مختلفة وأكثر تقدمًا أو تتركز في مراكز تكنولوجية معينة، مما يعني أن العديد من العمال الذين فقدوا وظائفهم قد يواجهون صعوبة في إيجاد موطئ قدم جديد.

هذا التفاوت بين المهارات التي يمتلكها العمال والمهارات التي تتطلبها الأدوار الجديدة المدفوعة بالذكاء الاصطناعي قد يؤدي إلى ارتفاع معدلات البطالة وعدم المساواة إذا لم يتم التعامل معه. بالفعل، يحذر صانعو السياسات والباحثون من أن التقدم السريع في الذكاء الاصطناعي قد يجلب "اضطرابات في سوق العمل، وعدم مساواة في القوة الاقتصادية" على نطاق منهجي.

تأثير الجنس

نسبة أعلى من الوظائف التي تشغلها النساء معرضة لخطر الأتمتة

الدول النامية

يواجه العمال في الدول النامية مخاطر أعلى من الأتمتة

بدون إجراءات استباقية (مثل برامج إعادة التدريب، والتعليم في مهارات الذكاء الاصطناعي، وشبكات الأمان الاجتماعي)، قد يوسع الذكاء الاصطناعي الفجوات الاجتماعية والاقتصادية، مما يخلق اقتصادًا مدفوعًا بالذكاء الاصطناعي حيث يجني أصحاب التكنولوجيا معظم الفوائد.

التحضير لتأثير الذكاء الاصطناعي على القوى العاملة أمر حاسم لضمان توزيع فوائد الأتمتة على نطاق واسع ومنع الاضطرابات الاجتماعية الناتجة عن فقدان الوظائف على نطاق واسع.

فقدان الوظائف والاضطرابات الاقتصادية في الذكاء الاصطناعي
فقدان الوظائف والاضطرابات الاقتصادية في الذكاء الاصطناعي

سوء الاستخدام الجنائي، الاحتيال، وتهديدات الأمان

الذكاء الاصطناعي أداة قوية يمكن استخدامها لأغراض خبيثة بقدر ما يمكن استخدامها لأغراض نبيلة. المجرمون الإلكترونيون وغيرهم من الجهات الخبيثة يستغلون الذكاء الاصطناعي بالفعل لتعزيز هجماتهم.

على سبيل المثال، يمكن للذكاء الاصطناعي توليد رسائل تصيد إلكتروني أو رسائل صوتية مخصصة للغاية (عن طريق استنساخ صوت شخص ما) لخداع الناس للكشف عن معلومات حساسة أو إرسال أموال. يمكن أيضًا استخدامه لأتمتة الاختراق من خلال اكتشاف ثغرات البرامج على نطاق واسع أو لتطوير برمجيات خبيثة تتكيف لتفادي الكشف.

التصيد الإلكتروني المدعوم بالذكاء الاصطناعي

رسائل إلكترونية خادعة مخصصة على نطاق واسع

الاختراق الآلي

أنظمة الذكاء الاصطناعي تكتشف الثغرات أسرع من القراصنة البشر

البرمجيات الخبيثة المتكيفة

برمجيات خبيثة ذاتية التعديل تتجنب الكشف

يمكن للجهات الخبيثة استخدام الذكاء الاصطناعي في حملات تضليل واسعة النطاق، والاحتيال، والعمليات الاحتيالية.

— تقرير بتكليف من الحكومة البريطانية

يحدد مركز سلامة الذكاء الاصطناعي الاستخدام الخبيث للذكاء الاصطناعي كقضية رئيسية، مشيرًا إلى سيناريوهات مثل استخدام أنظمة الذكاء الاصطناعي من قبل المجرمين لارتكاب احتيال وهجمات إلكترونية واسعة النطاق.

السرعة، والحجم، والتعقيد التي يوفرها الذكاء الاصطناعي قد تغلب الدفاعات التقليدية – تخيل آلاف المكالمات الاحتيالية أو الفيديوهات المزيفة التي تستهدف أمن شركة في يوم واحد.

تهديدات ناشئة: يُستخدم الذكاء الاصطناعي لتسهيل سرقة الهوية، والمضايقات، وإنشاء محتوى ضار مثل الأفلام الإباحية المزيفة غير الموافقة أو الدعاية للجماعات المتطرفة.

مع تزايد سهولة الوصول إلى أدوات الذكاء الاصطناعي، ينخفض الحاجز أمام تنفيذ هذه الأنشطة الخبيثة، مما قد يؤدي إلى زيادة في الجرائم المعززة بالذكاء الاصطناعي.

هذا يتطلب نهجًا جديدًا للأمن السيبراني وإنفاذ القانون، مثل أنظمة الذكاء الاصطناعي التي يمكنها كشف الفيديوهات المزيفة أو السلوك الشاذ وأطر قانونية محدثة لمحاسبة الجناة. باختصار، يجب أن نتوقع أن أي قدرة يوفرها الذكاء الاصطناعي للمستفيدين، قد يوفرها بنفس القدر للمجرمين – ويجب أن نستعد لذلك.

سوء الاستخدام الجنائي، الاحتيال، وتهديدات الأمان في الذكاء الاصطناعي
سوء الاستخدام الجنائي، الاحتيال، وتهديدات الأمان في الذكاء الاصطناعي

التسلح والأسلحة المستقلة

ربما يكون أخطر مخاطر الذكاء الاصطناعي هو ظهوره في سياق الحرب والأمن القومي. يتم دمج الذكاء الاصطناعي بسرعة في الأنظمة العسكرية، مما يثير احتمال وجود أسلحة مستقلة ("روبوتات قاتلة") واتخاذ قرارات قتالية مدفوعة بالذكاء الاصطناعي.

يمكن لهذه التقنيات أن تتفاعل أسرع من أي إنسان، لكن إزالة السيطرة البشرية عن استخدام القوة القاتلة محفوفة بالمخاطر. هناك خطر أن يختار سلاح يتحكم فيه الذكاء الاصطناعي هدفًا خاطئًا أو يصعد النزاعات بطرق غير متوقعة.

قلق دولي: يُعتبر تسليح الذكاء الاصطناعي للاستخدام العسكري تهديدًا متزايدًا من قبل المراقبين الدوليين.

أخطاء اختيار الأهداف

قد تخلط أسلحة الذكاء الاصطناعي بين المدنيين والمقاتلين

  • تحديد إيجابي خاطئ
  • ضحايا مدنيون

تصعيد النزاعات

قد تصعد الأنظمة المستقلة المواقف بما يتجاوز نية البشر

  • دورات استجابة سريعة
  • تصعيد غير مسيطر عليه

إذا تسابقت الدول لتزويد ترساناتها بأسلحة ذكية، فقد يؤدي ذلك إلى سباق تسلح مزعزع للاستقرار. علاوة على ذلك، يمكن استخدام الذكاء الاصطناعي في الحرب السيبرانية لمهاجمة البنية التحتية الحيوية بشكل مستقل أو نشر الدعاية، مما يطمس الخط الفاصل بين السلام والنزاع.

تطوير الذكاء الاصطناعي في الحرب، إذا تم تركيزه في أيدي قلة، قد يُفرض على الناس بدون أن يكون لهم رأي في كيفية استخدامه، مما يقوض الأمن والأخلاقيات العالمية.

— الأمم المتحدة

تشكل أنظمة الأسلحة المستقلة أيضًا مآزق قانونية وأخلاقية – من المسؤول إذا قتل طائرة بدون طيار مدفوعة بالذكاء الاصطناعي المدنيين عن طريق الخطأ؟ كيف تلتزم هذه الأنظمة بالقانون الإنساني الدولي؟

أدت هذه الأسئلة التي لم تُجب إلى دعوات لحظر أو تنظيم صارم لبعض الأسلحة المدعومة بالذكاء الاصطناعي. يُنظر إلى ضمان الإشراف البشري على أي ذكاء اصطناعي يمكنه اتخاذ قرارات حياة أو موت على أنه أمر بالغ الأهمية. بدون ذلك، الخطر ليس فقط الأخطاء المأساوية في ساحة المعركة بل تآكل المسؤولية الإنسانية في الحرب.

التسلح والأسلحة المستقلة في الذكاء الاصطناعي
التسلح والأسلحة المستقلة في الذكاء الاصطناعي

نقص الشفافية والمساءلة

تعمل معظم أنظمة الذكاء الاصطناعي المتقدمة اليوم كـ "صناديق سوداء" – غالبًا ما تكون منطقها الداخلي غامضًا حتى لمبدعيها. يخلق هذا النقص في الشفافية خطر عدم إمكانية شرح أو تحدي قرارات الذكاء الاصطناعي، وهو مشكلة خطيرة في مجالات مثل العدالة، والمالية، أو الرعاية الصحية حيث يمكن أن يكون التفسير مطلبًا قانونيًا أو أخلاقيًا.

إذا رفض الذكاء الاصطناعي منح شخص قرضًا، أو شخص مرضًا، أو قرر من يحصل على الإفراج المشروط من السجن، نرغب بطبيعة الحال في معرفة السبب. مع بعض نماذج الذكاء الاصطناعي (وخاصة الشبكات العصبية المعقدة)، يكون تقديم مبرر واضح أمرًا صعبًا.

القرارات القانونية

الإفراج المشروط، الأحكام، والقرارات القانونية التي تتخذها أنظمة ذكاء اصطناعي غامضة

الخدمات المالية

الموافقات على القروض وقرارات الائتمان بدون تفسيرات واضحة

الرعاية الصحية

التشخيصات الطبية وتوصيات العلاج من ذكاء اصطناعي غير قابل للشرح

قد يقوض نقص الشفافية أيضًا إمكانية الطعن الفعال في القرارات المبنية على نتائج أنظمة الذكاء الاصطناعي، وقد ينتهك بذلك الحق في محاكمة عادلة وعلاج فعال.

— اليونسكو

بعبارة أخرى، إذا لم يتمكن المستخدمون أو المنظمون من فهم كيفية اتخاذ الذكاء الاصطناعي للقرارات، يصبح من شبه المستحيل محاسبة أي شخص على الأخطاء أو التحيزات التي تنشأ.

فجوة المساءلة: قد تتجنب الشركات المسؤولية بإلقاء اللوم على "الخوارزمية"، وقد يُترك الأفراد المتضررون بدون ملاذ.

لمواجهة ذلك، يدعو الخبراء إلى تقنيات الذكاء الاصطناعي القابل للشرح، والتدقيق الصارم، والمتطلبات التنظيمية التي تجعل قرارات الذكاء الاصطناعي قابلة للتتبع إلى سلطة بشرية.

في الواقع، تصر الإرشادات الأخلاقية العالمية على أنه يجب "دائمًا أن يكون من الممكن نسب المسؤولية الأخلاقية والقانونية" لسلوك أنظمة الذكاء الاصطناعي إلى شخص أو منظمة. يجب أن يظل البشر مسؤولين في النهاية، ويجب أن يساعد الذكاء الاصطناعي بدلاً من أن يحل محل الحكم البشري في الأمور الحساسة. وإلا، فإننا نخاطر بخلق عالم تُتخذ فيه قرارات مهمة بواسطة آلات غامضة، وهو وصفة للظلم.

نقص الشفافية والمساءلة في استخدام الذكاء الاصطناعي في مكان العمل
نقص الشفافية والمساءلة في استخدام الذكاء الاصطناعي في مكان العمل

تركيز السلطة وعدم المساواة

ثورة الذكاء الاصطناعي لا تحدث بشكل متساوٍ في جميع أنحاء العالم – عدد قليل من الشركات والدول يهيمنون على تطوير الذكاء الاصطناعي المتقدم، وهذا يحمل مخاطره الخاصة.

تتطلب نماذج الذكاء الاصطناعي المتطورة موارد هائلة من البيانات، والمواهب، والحوسبة التي لا تمتلكها سوى عمالقة التكنولوجيا (والحكومات الممولة جيدًا) حاليًا.

أدى ذلك إلى سلسلة توريد مركزة للغاية، متكاملة عالميًا، تفضل عددًا قليلاً من الشركات والدول.

— المنتدى الاقتصادي العالمي

احتكارات البيانات

مجموعات بيانات ضخمة تسيطر عليها كيانات قليلة

موارد الحوسبة

بنية تحتية مكلفة متاحة فقط لعمالقة التكنولوجيا

تركيز المواهب

أبرز الباحثين في الذكاء الاصطناعي مركزون في عدد قليل من المؤسسات

قد يترجم هذا التركيز في قوة الذكاء الاصطناعي إلى سيطرة احتكارية على تقنيات الذكاء الاصطناعي، مما يحد من المنافسة وخيارات المستهلكين. كما يثير خطر أن أولويات تلك الشركات أو الدول القليلة ستشكل الذكاء الاصطناعي بطرق لا تأخذ في الاعتبار المصلحة العامة الأوسع.

تحذير الأمم المتحدة: هناك خطر أن تُفرض تكنولوجيا الذكاء الاصطناعي على الناس بدون أن يكون لهم رأي في كيفية استخدامها، عندما يقتصر التطوير على قلة قوية.

يمكن أن يؤدي هذا الخلل إلى تفاقم عدم المساواة العالمية: تتقدم الدول والشركات الغنية من خلال الاستفادة من الذكاء الاصطناعي، بينما تفتقر المجتمعات الفقيرة إلى الوصول إلى أحدث الأدوات وتعاني من فقدان الوظائف دون الاستفادة من مزايا الذكاء الاصطناعي.

بالإضافة إلى ذلك، قد يعيق قطاع الذكاء الاصطناعي المركز الابتكار (إذا لم يتمكن القادمون الجدد من المنافسة مع موارد الشركات القائمة) ويشكل مخاطر أمنية (إذا تم التحكم في البنية التحتية الحيوية للذكاء الاصطناعي من قبل عدد قليل فقط من الكيانات، يصبح نقطة فشل أو تلاعب واحدة).

يتطلب معالجة هذا الخطر التعاون الدولي وربما تنظيمات جديدة لديمقراطية تطوير الذكاء الاصطناعي – على سبيل المثال، دعم البحث المفتوح، وضمان الوصول العادل إلى البيانات والحوسبة، وصياغة سياسات (مثل قانون الذكاء الاصطناعي المقترح في الاتحاد الأوروبي) لمنع الممارسات المسيئة من قبل "حراس بوابات الذكاء الاصطناعي". سيساعد مشهد الذكاء الاصطناعي الأكثر شمولاً على ضمان توزيع فوائد الذكاء الاصطناعي عالميًا، بدلاً من توسيع الفجوة بين من يملكون التكنولوجيا ومن لا يملكون.

تركيز السلطة وعدم المساواة
تركيز السلطة وعدم المساواة

التأثير البيئي للذكاء الاصطناعي

غالبًا ما يُغفل في مناقشات مخاطر الذكاء الاصطناعي أثره البيئي. يستهلك تطوير الذكاء الاصطناعي، خاصة تدريب نماذج التعلم الآلي الكبيرة، كميات هائلة من الكهرباء وقوة الحوسبة.

تتطلب مراكز البيانات المليئة بآلاف الخوادم التي تستهلك طاقة عالية معالجة كميات هائلة من البيانات التي تتعلم منها أنظمة الذكاء الاصطناعي. هذا يعني أن الذكاء الاصطناعي يمكن أن يساهم بشكل غير مباشر في انبعاثات الكربون وتغير المناخ.

إحصائيات مقلقة: وجد تقرير حديث لوكالة الأمم المتحدة أن الانبعاثات الكربونية غير المباشرة لأربع شركات تقنية رائدة في مجال الذكاء الاصطناعي ارتفعت بمعدل 150% في المتوسط من 2020 إلى 2023، ويرجع ذلك إلى حد كبير إلى متطلبات الطاقة لمراكز بيانات الذكاء الاصطناعي.
زيادة انبعاثات الكربون (2020-2023) 150%

مع تزايد الاستثمار في الذكاء الاصطناعي، من المتوقع أن ترتفع الانبعاثات الناتجة عن تشغيل نماذج الذكاء الاصطناعي بشكل حاد – حيث توقع التقرير أن أكبر أنظمة الذكاء الاصطناعي قد تصدر أكثر من 100 مليون طن من ثاني أكسيد الكربون سنويًا، مما يضع ضغطًا كبيرًا على البنية التحتية للطاقة.

لوضع ذلك في منظور، تدفع مراكز البيانات التي تشغل الذكاء الاصطناعي استخدام الكهرباء إلى الارتفاع "أربع مرات أسرع من الزيادة العامة في استهلاك الكهرباء".

استهلاك الطاقة

استخدام هائل للكهرباء لتدريب وتشغيل نماذج الذكاء الاصطناعي

استهلاك المياه

استهلاك كبير للمياه لتبريد مراكز البيانات

النفايات الإلكترونية

تحديثات الأجهزة التي تخلق تدفقات نفايات إلكترونية

بعيدًا عن انبعاثات الكربون، يمكن للذكاء الاصطناعي أيضًا استهلاك كميات كبيرة من المياه للتبريد وإنتاج نفايات إلكترونية مع ترقية الأجهزة بسرعة. إذا تُرك دون رقابة، قد يقوض تأثير الذكاء الاصطناعي البيئي جهود الاستدامة العالمية.

تتطلب هذه المخاطر جعل الذكاء الاصطناعي أكثر كفاءة في استخدام الطاقة واستخدام مصادر طاقة أنظف. يطور الباحثون تقنيات الذكاء الاصطناعي الخضراء لتقليل استهلاك الطاقة، وقد تعهدت بعض الشركات بتعويض تكاليف الكربون الناتجة عن الذكاء الاصطناعي. ومع ذلك، لا يزال هذا مصدر قلق ملح حيث قد يحمل الاندفاع نحو الذكاء الاصطناعي ثمنًا بيئيًا باهظًا. التوازن بين التقدم التكنولوجي والمسؤولية البيئية هو تحدٍ آخر يجب على المجتمع التعامل معه أثناء دمج الذكاء الاصطناعي في كل مكان.

التأثير البيئي للذكاء الاصطناعي
التأثير البيئي للذكاء الاصطناعي

المخاطر الوجودية وطويلة الأمد

بعيدًا عن المخاطر الفورية، يحذر بعض الخبراء من مخاطر تخيلية وطويلة الأمد من الذكاء الاصطناعي – بما في ذلك احتمال وجود ذكاء اصطناعي متقدم يتجاوز سيطرة البشر. بينما أنظمة الذكاء الاصطناعي الحالية ضيقة القدرات، يعمل الباحثون بنشاط نحو ذكاء اصطناعي عام قد يتفوق على البشر في العديد من المجالات.

يثير هذا أسئلة معقدة: إذا أصبح الذكاء الاصطناعي أكثر ذكاءً أو استقلالية بشكل كبير، هل يمكن أن يتصرف بطرق تهدد وجود البشرية؟ رغم أن هذا يبدو كخيال علمي، فقد عبر شخصيات بارزة في مجتمع التكنولوجيا عن قلقهم بشأن سيناريوهات "الذكاء الاصطناعي الخارج عن السيطرة"، وتتخذ الحكومات هذا النقاش على محمل الجد.

رد الحكومة: استضافت المملكة المتحدة في 2023 قمة عالمية لسلامة الذكاء الاصطناعي لمعالجة مخاطر الذكاء الاصطناعي المتقدمة، مما يدل على اهتمام مؤسسي جاد بسلامة الذكاء الاصطناعي على المدى الطويل.

لدى الخبراء آراء مختلفة حول خطر فقدان البشرية السيطرة على الذكاء الاصطناعي بطريقة قد تؤدي إلى نتائج كارثية.

— تقرير السلامة الدولي للذكاء الاصطناعي

لا يوجد إجماع علمي – يعتقد البعض أن الذكاء الاصطناعي فائق الذكاء بعيد عقود أو يمكن الحفاظ على توافقه مع القيم الإنسانية، بينما يرى آخرون احتمالًا صغيرًا لكنه غير صفري لنتائج كارثية.

سيناريوهات المخاطر الوجودية المحتملة

  • سعي الذكاء الاصطناعي لأهداف غير متوافقة مع القيم الإنسانية
  • تقدم سريع وغير مسيطر عليه لقدرات الذكاء الاصطناعي
  • فقدان الوكالة البشرية في اتخاذ القرارات الحرجة
  • أنظمة الذكاء الاصطناعي التي تحسن لأهداف ضارة

تدابير السلامة طويلة الأمد

  • بحث توافق الذكاء الاصطناعي لضمان أهداف متوافقة
  • اتفاقيات دولية حول أبحاث الذكاء الاصطناعي عالية المخاطر
  • الحفاظ على الإشراف البشري مع تطور قدرات الذكاء الاصطناعي
  • إنشاء أطر حوكمة عالمية للذكاء الاصطناعي

باختصار، هناك اعتراف بأن المخاطر الوجودية من الذكاء الاصطناعي، مهما كانت بعيدة، لا يمكن استبعادها تمامًا. قد ينطوي مثل هذا السيناريو على ذكاء اصطناعي يسعى لتحقيق أهدافه على حساب رفاهية الإنسان (المثال الكلاسيكي هو ذكاء اصطناعي، إذا تمت برمجته بشكل خاطئ، يقرر القيام بشيء ضار على نطاق واسع لأنه يفتقر إلى الحس السليم أو القيود الأخلاقية).

بينما لا يمتلك أي ذكاء اصطناعي اليوم وكالة تقترب من هذا المستوى، فإن وتيرة تقدم الذكاء الاصطناعي سريعة وغير متوقعة، وهو عامل خطر بحد ذاته.

الاستعداد للمخاطر طويلة الأمد يعني الاستثمار في أبحاث توافق الذكاء الاصطناعي (لضمان بقاء أهداف الذكاء الاصطناعي متوافقة مع القيم الإنسانية)، وإبرام اتفاقيات دولية حول أبحاث الذكاء الاصطناعي عالية المخاطر (مثل المعاهدات حول الأسلحة النووية أو البيولوجية)، والحفاظ على الإشراف البشري مع تطور أنظمة الذكاء الاصطناعي.

يحمل مستقبل الذكاء الاصطناعي وعدًا هائلًا، لكنه أيضًا مليء بعدم اليقين – والحكمة تقتضي أن نأخذ في الاعتبار حتى المخاطر منخفضة الاحتمال وعالية التأثير في تخطيطنا طويل الأمد.

المخاطر الوجودية وطويلة الأمد في الذكاء الاصطناعي
المخاطر الوجودية وطويلة الأمد في الذكاء الاصطناعي

التنقل بمسؤولية في مستقبل الذكاء الاصطناعي

غالبًا ما يُشبه الذكاء الاصطناعي بمحرك قوي يمكنه دفع البشرية إلى الأمام – لكن بدون فرامل وتوجيه، يمكن لذلك المحرك أن ينحرف عن المسار. كما رأينا، فإن مخاطر استخدام الذكاء الاصطناعي متعددة الأوجه: من القضايا الفورية مثل الخوارزميات المتحيزة، والأخبار المزيفة، وانتهاكات الخصوصية، واضطرابات الوظائف، إلى التحديات المجتمعية الأوسع مثل تهديدات الأمان، واتخاذ القرارات "الصندوق الأسود"، واحتكارات التكنولوجيا الكبرى، والضغط البيئي، وحتى شبح فقدان السيطرة على ذكاء اصطناعي فائق الذكاء في المستقبل البعيد.

ملاحظة مهمة: لا تعني هذه المخاطر أنه يجب علينا إيقاف تطوير الذكاء الاصطناعي؛ بل إنها تبرز الحاجة الملحة لحوكمة مسؤولة للذكاء الاصطناعي وممارسات أخلاقية.

تتعاون الحكومات والمنظمات الدولية وقادة الصناعة والباحثون بشكل متزايد لمعالجة هذه المخاوف – على سبيل المثال، من خلال أطر مثل:

  • إطار إدارة مخاطر الذكاء الاصطناعي من NIST الأمريكي (لتحسين موثوقية الذكاء الاصطناعي)
  • توصية اليونسكو العالمية لأخلاقيات الذكاء الاصطناعي
  • قانون الذكاء الاصطناعي للاتحاد الأوروبي

تهدف هذه الجهود إلى تعظيم فوائد الذكاء الاصطناعي مع تقليل سلبياته، وضمان خدمة الذكاء الاصطناعي للبشرية وليس العكس.

الطريق إلى الأمام

فهم مخاطر الذكاء الاصطناعي هو الخطوة الأولى لإدارتها. من خلال البقاء على اطلاع والمشاركة في كيفية تطوير واستخدام الذكاء الاصطناعي، يمكننا المساعدة في توجيه هذه التكنولوجيا التحولية نحو اتجاه آمن وعادل ومفيد للجميع.

استكشف المزيد من المقالات ذات الصلة
96 مقالات
روزي ها هي كاتبة في Inviai، متخصصة في مشاركة المعرفة والحلول المتعلقة بالذكاء الاصطناعي. بفضل خبرتها في البحث وتطبيق الذكاء الاصطناعي في مجالات متعددة مثل الأعمال التجارية، إنشاء المحتوى، والأتمتة، تقدم روزي ها مقالات سهلة الفهم، عملية وملهمة. تتمثل مهمة روزي ها في مساعدة الجميع على استغلال الذكاء الاصطناعي بفعالية لتعزيز الإنتاجية وتوسيع آفاق الإبداع.
بحث