أصبح الذكاء الاصطناعي (AI) الآن جزءًا لا يتجزأ من كل شيء بدءًا من مساعدي الهواتف الذكية وخلاصات وسائل التواصل الاجتماعي إلى الرعاية الصحية والنقل. تجلب هذه التقنيات فوائد غير مسبوقة، لكنها تأتي أيضًا مع مخاطر وتحديات كبيرة.

يحذر الخبراء والمؤسسات العالمية من أنه بدون ضوابط أخلاقية مناسبة، يمكن للذكاء الاصطناعي أن يعيد إنتاج التحيزات والتمييز الموجودة في العالم الحقيقي، ويساهم في الضرر البيئي، ويهدد حقوق الإنسان، ويزيد من التفاوتات القائمة.

في هذا المقال، دعونا نستكشف مع INVIAI مخاطر استخدام الذكاء الاصطناعي في جميع المجالات وأنواع الذكاء الاصطناعي – من روبوتات الدردشة والخوارزميات إلى الروبوتات – استنادًا إلى رؤى من مصادر رسمية ودولية.

التحيز والتمييز في أنظمة الذكاء الاصطناعي

أحد المخاطر الرئيسية للذكاء الاصطناعي هو ترسيخ التحيز والتمييز غير العادل. تتعلم نماذج الذكاء الاصطناعي من بيانات قد تعكس تحاملات أو تفاوتات تاريخية؛ ونتيجة لذلك، قد يعامل نظام الذكاء الاصطناعي الأشخاص بشكل مختلف بناءً على العرق أو الجنس أو خصائص أخرى بطرق تعزز الظلم.

على سبيل المثال، “يمكن للذكاء الاصطناعي العام المعطل أن يسبب ضررًا من خلال قرارات متحيزة تتعلق بخصائص محمية مثل العرق والجنس والثقافة والعمر والإعاقة”، وفقًا لتقرير دولي حول سلامة الذكاء الاصطناعي.

لقد أدت الخوارزميات المتحيزة المستخدمة في التوظيف والإقراض أو الشرطة بالفعل إلى نتائج غير متساوية تضر بفئات معينة بشكل غير عادل. تحذر هيئات عالمية مثل اليونسكو من أنه بدون تدابير للعدالة، يواجه الذكاء الاصطناعي خطر “إعادة إنتاج التحيزات والتمييز في العالم الحقيقي، وتأجيج الانقسامات وتهديد الحقوق والحريات الأساسية للإنسان”. من الضروري ضمان تدريب أنظمة الذكاء الاصطناعي على بيانات متنوعة وتمثيلية وتدقيقها للكشف عن التحيز لمنع التمييز الآلي.

التحيز والتمييز في أنظمة الذكاء الاصطناعي

مخاطر المعلومات المضللة والفيديوهات المزيفة

أثارت قدرة الذكاء الاصطناعي على توليد نصوص وصور وفيديوهات فائقة الواقعية مخاوف من فيضان المعلومات المضللة. يمكن للذكاء الاصطناعي التوليدي إنتاج مقالات إخبارية مزيفة مقنعة، وصور مزيفة، أو فيديوهات مزيفة يصعب تمييزها عن الواقع.

يحدد تقرير المخاطر العالمية 2024 للمنتدى الاقتصادي العالمي “المعلومات المُعدلة والمزيفة” كـ أخطر خطر عالمي قصير الأمد، مشيرًا إلى أن الذكاء الاصطناعي “يزيد من تضخيم المعلومات المُعدلة والمشوهة التي قد تزعزع استقرار المجتمعات”.

في الواقع، تشكل المعلومات المضللة والمزيفة التي يغذيها الذكاء الاصطناعي أحد “أكبر التحديات التي تواجه العملية الديمقراطية على الإطلاق” – خاصة مع وجود مليارات الأشخاص الذين سيصوتون في الانتخابات القادمة. يمكن استخدام الوسائط الاصطناعية مثل الفيديوهات المزيفة والأصوات المستنسخة بالذكاء الاصطناعي لنشر الدعاية، وانتحال شخصيات عامة، أو ارتكاب الاحتيال.

يحذر المسؤولون من أن الجهات الخبيثة يمكنها استغلال الذكاء الاصطناعي في حملات تضليل واسعة النطاق، مما يسهل إغراق الشبكات الاجتماعية بمحتوى مزيف وزرع الفوضى. الخطر هو بيئة معلوماتية متشككة لا يستطيع المواطنون الوثوق بما يرونه أو يسمعونه، مما يقوض الخطاب العام والديمقراطية.

مخاطر المعلومات المضللة والفيديوهات المزيفة في الذكاء الاصطناعي

التهديدات للخصوصية والمراقبة الشاملة

يثير الاستخدام الواسع للذكاء الاصطناعي مخاوف جدية بشأن الخصوصية. غالبًا ما تتطلب أنظمة الذكاء الاصطناعي كميات هائلة من البيانات الشخصية – من وجوهنا وأصواتنا إلى عادات التسوق والموقع – لتعمل بفعالية. بدون ضوابط قوية، يمكن إساءة استخدام هذه البيانات أو استغلالها.

على سبيل المثال، يمكن لتقنيات التعرف على الوجه والخوارزميات التنبؤية أن تمكّن المراقبة الشاملة، وتتبع كل حركة للأفراد أو تقييم سلوكهم بدون موافقة. تحذر توصية اليونسكو العالمية لأخلاقيات الذكاء الاصطناعي صراحة من أن “لا ينبغي استخدام أنظمة الذكاء الاصطناعي لأغراض التقييم الاجتماعي أو المراقبة الشاملة”. تُعتبر هذه الاستخدامات مخاطر غير مقبولة على نطاق واسع.

علاوة على ذلك، يمكن لتحليل الذكاء الاصطناعي للبيانات الشخصية أن يكشف تفاصيل حميمة عن حياتنا، من الحالة الصحية إلى المعتقدات السياسية، مما يشكل تهديدًا لـ حق الخصوصية. تؤكد وكالات حماية البيانات أن الخصوصية “حق أساسي لحماية كرامة الإنسان واستقلاليته ووكالته” ويجب احترامها طوال دورة حياة نظام الذكاء الاصطناعي.

إذا تجاوز تطوير الذكاء الاصطناعي تنظيمات الخصوصية، قد يفقد الأفراد السيطرة على معلوماتهم الخاصة. يجب على المجتمع ضمان وجود حوكمة بيانات قوية وآليات موافقة وتقنيات تحافظ على الخصوصية حتى لا تتحول تقنيات الذكاء الاصطناعي إلى أدوات مراقبة غير خاضعة للرقابة.

التهديدات للخصوصية والمراقبة الشاملة

فشل السلامة والأضرار غير المقصودة

بينما يمكن للذكاء الاصطناعي أتمتة القرارات والمهام البدنية بكفاءة تفوق البشر، يمكنه أيضًا الفشل بطرق غير متوقعة، مما يؤدي إلى أضرار في العالم الحقيقي. نثق في الذكاء الاصطناعي بمسؤوليات حرجة متزايدة – مثل قيادة السيارات، وتشخيص المرضى، أو إدارة شبكات الطاقة – لكن هذه الأنظمة ليست معصومة من الخطأ.

يمكن أن تتسبب الأعطال، أو بيانات التدريب المعيبة، أو الحالات غير المتوقعة في ارتكاب الذكاء الاصطناعي لأخطاء خطيرة. قد يخطئ الذكاء الاصطناعي في سيارة ذاتية القيادة في التعرف على أحد المشاة، أو يوصي الذكاء الاصطناعي الطبي بعلاج خاطئ، مع عواقب قد تكون مميتة.

إدراكًا لذلك، تؤكد الإرشادات الدولية على ضرورة توقع ومنع الأضرار غير المرغوب فيها ومخاطر السلامة من الذكاء الاصطناعي: “يجب تجنب ومعالجة الأضرار غير المرغوب فيها (مخاطر السلامة)، وكذلك نقاط الضعف للهجوم (مخاطر الأمان) طوال دورة حياة أنظمة الذكاء الاصطناعي لضمان سلامة وأمن الإنسان والبيئة والنظام البيئي.”

بمعنى آخر، يجب اختبار أنظمة الذكاء الاصطناعي بدقة، ومراقبتها، وبناؤها مع آليات أمان لتقليل فرص الأعطال. كما أن الاعتماد المفرط على الذكاء الاصطناعي قد يكون خطيرًا – إذا أصبح البشر يثقون بالقرارات الآلية بشكل أعمى، فقد لا يتدخلون في الوقت المناسب عند حدوث خطأ.

لذلك، فإن ضمان الإشراف البشري أمر حاسم. في الاستخدامات ذات المخاطر العالية (مثل الرعاية الصحية أو النقل)، يجب أن تظل القرارات النهائية خاضعة للحكم البشري، وكما تشير اليونسكو، “لا ينبغي تفويض قرارات الحياة والموت إلى أنظمة الذكاء الاصطناعي.” الحفاظ على السلامة والموثوقية في الذكاء الاصطناعي هو تحدٍ مستمر يتطلب تصميمًا دقيقًا وثقافة مسؤولية من مطوري الذكاء الاصطناعي.

فشل السلامة والأضرار غير المقصودة في الذكاء الاصطناعي

فقدان الوظائف والاضطرابات الاقتصادية

يُعد تأثير الذكاء الاصطناعي التحويلي على الاقتصاد سلاحًا ذا حدين. فمن جهة، يمكن للذكاء الاصطناعي زيادة الإنتاجية وخلق صناعات جديدة بالكامل؛ ومن جهة أخرى، يشكل خطر فقدان ملايين الوظائف بسبب الأتمتة.

العديد من الوظائف – خاصة تلك التي تتضمن مهام روتينية ومتكررة أو بيانات سهلة التحليل – معرضة لأن تحل محلها خوارزميات الذكاء الاصطناعي والروبوتات. التوقعات العالمية مقلقة: على سبيل المثال، يتوقع المنتدى الاقتصادي العالمي أن “اثنين وتسعين مليون وظيفة قد تُفقد بحلول عام 2030” بسبب الذكاء الاصطناعي والتقنيات ذات الصلة.

بينما قد يخلق الاقتصاد أيضًا أدوارًا جديدة (وربما وظائف أكثر مما يُفقد على المدى الطويل)، سيكون الانتقال مؤلمًا لكثيرين. غالبًا ما تتطلب الوظائف الجديدة مهارات مختلفة وأكثر تقدمًا أو تتركز في مراكز تقنية معينة، مما يعني أن العديد من العمال الذين فقدوا وظائفهم قد يواجهون صعوبة في إيجاد موطئ قدم جديد.

هذا التفاوت بين مهارات العمال والمهارات المطلوبة للأدوار الجديدة المدفوعة بالذكاء الاصطناعي قد يؤدي إلى ارتفاع معدلات البطالة وعدم المساواة إذا لم يُعالج. بالفعل، يحذر صانعو السياسات والباحثون من أن التقدم السريع في الذكاء الاصطناعي قد يجلب “اضطرابات في سوق العمل، وعدم مساواة في القوة الاقتصادية” على نطاق منهجي.

قد تتأثر بعض الفئات بشكل أكبر – على سبيل المثال، تشير بعض الدراسات إلى أن نسبة أكبر من الوظائف التي تشغلها النساء أو العمال في البلدان النامية معرضة لخطر الأتمتة. بدون إجراءات استباقية (مثل برامج إعادة التدريب، والتعليم في مهارات الذكاء الاصطناعي، وشبكات الأمان الاجتماعي)، قد يوسع الذكاء الاصطناعي الفجوات الاجتماعية والاقتصادية، مما يخلق اقتصادًا مدفوعًا بالذكاء الاصطناعي يستفيد منه أصحاب التكنولوجيا بشكل رئيسي.

إن إعداد القوى العاملة لتأثير الذكاء الاصطناعي أمر حاسم لضمان توزيع فوائد الأتمتة بشكل عادل ومنع الاضطرابات الاجتماعية الناتجة عن فقدان الوظائف على نطاق واسع.

فقدان الوظائف والاضطرابات الاقتصادية في الذكاء الاصطناعي

الاستخدام الإجرامي والاحتيال والتهديدات الأمنية

الذكاء الاصطناعي أداة قوية يمكن استخدامها لأغراض خبيثة بقدر ما يمكن استخدامها لأغراض نبيلة. المجرمون الإلكترونيون وغيرهم من الجهات الخبيثة يستغلون الذكاء الاصطناعي بالفعل لتعزيز هجماتهم.

على سبيل المثال، يمكن للذكاء الاصطناعي توليد رسائل تصيد إلكتروني مخصصة للغاية أو رسائل صوتية (عن طريق استنساخ صوت شخص ما) لخداع الناس للكشف عن معلومات حساسة أو إرسال أموال. كما يمكن استخدامه لأتمتة الاختراق من خلال اكتشاف ثغرات البرامج على نطاق واسع أو لتطوير برمجيات خبيثة تتكيف لتفادي الكشف.

يحدد مركز سلامة الذكاء الاصطناعي الاستخدام الخبيث للذكاء الاصطناعي كقضية رئيسية، مشيرًا إلى سيناريوهات مثل استخدام أنظمة الذكاء الاصطناعي من قبل مجرمين لارتكاب احتيال وهجمات إلكترونية واسعة النطاق. في الواقع، حذر تقرير بريطاني مفوض من الحكومة صراحة من أن “الجهات الخبيثة يمكنها استخدام الذكاء الاصطناعي في حملات تضليل واسعة النطاق، وعمليات تأثير، والاحتيال، والاحتيالات”.

السرعة والحجم والتعقيد التي يوفرها الذكاء الاصطناعي قد تغلب الدفاعات التقليدية – تخيل آلاف المكالمات الاحتيالية أو الفيديوهات المزيفة التي تُنتج بالذكاء الاصطناعي تستهدف أمن شركة في يوم واحد.

بعيدًا عن الجرائم المالية، هناك أيضًا خطر استخدام الذكاء الاصطناعي لتسهيل سرقة الهوية، والمضايقات، أو إنشاء محتوى ضار (مثل الأفلام الإباحية المزيفة غير الموافقة أو الدعاية للجماعات المتطرفة). مع تزايد سهولة الوصول إلى أدوات الذكاء الاصطناعي، ينخفض الحاجز أمام تنفيذ هذه الأنشطة الخبيثة، مما قد يؤدي إلى زيادة في الجرائم المدعومة بالذكاء الاصطناعي.

هذا يتطلب نهجًا جديدًا للأمن السيبراني وإنفاذ القانون، مثل أنظمة الذكاء الاصطناعي التي يمكنها كشف الفيديوهات المزيفة أو السلوك الشاذ وأطر قانونية محدثة لمحاسبة الجناة. باختصار، يجب أن نتوقع أن أي قدرة يوفرها الذكاء الاصطناعي للجهات النافعة، قد يوفرها بنفس القدر للمجرمين – ويجب أن نكون مستعدين لذلك.

الاستخدام الإجرامي والاحتيال والتهديدات الأمنية في الذكاء الاصطناعي

العسكرة والأسلحة المستقلة

ربما يكون أخطر خطر للذكاء الاصطناعي هو ظهوره في سياق الحرب والأمن القومي. يتم دمج الذكاء الاصطناعي بسرعة في الأنظمة العسكرية، مما يثير احتمال وجود أسلحة مستقلة (“روبوتات قاتلة”) واتخاذ قرارات قتالية مدفوعة بالذكاء الاصطناعي.

يمكن لهذه التقنيات أن تتفاعل أسرع من أي إنسان، لكن إزالة السيطرة البشرية عن استخدام القوة القاتلة محفوفة بالمخاطر. هناك خطر أن يختار سلاح يتحكم فيه الذكاء الاصطناعي الهدف الخطأ أو يصعد النزاعات بطرق غير متوقعة. يحذر المراقبون الدوليون من أن “تسليح الذكاء الاصطناعي للاستخدام العسكري” يشكل تهديدًا متزايدًا.

إذا تسابقت الدول لتجهيز ترساناتها بأسلحة ذكية، فقد يؤدي ذلك إلى سباق تسلح مهدد للاستقرار. علاوة على ذلك، يمكن استخدام الذكاء الاصطناعي في الحرب الإلكترونية لمهاجمة البنية التحتية الحيوية بشكل مستقل أو نشر الدعاية، مما يطمس الخط الفاصل بين السلام والصراع.

أعربت الأمم المتحدة عن قلقها من أن تطوير الذكاء الاصطناعي في الحروب، إذا اقتصر على أيدي قلة، “قد يُفرض على الناس دون أن يكون لهم رأي في كيفية استخدامه”، مما يقوض الأمن والأخلاقيات العالمية.

تطرح أنظمة الأسلحة المستقلة أيضًا مآزق قانونية وأخلاقية – من المسؤول إذا قتل طائرة بدون طيار مدفوعة بالذكاء الاصطناعي مدنيين عن طريق الخطأ؟ كيف تلتزم هذه الأنظمة بالقانون الإنساني الدولي؟

هذه الأسئلة التي لم تُجب أدت إلى دعوات لحظر أو تنظيم صارم لبعض الأسلحة المدعومة بالذكاء الاصطناعي. يُنظر إلى ضمان الإشراف البشري على أي ذكاء اصطناعي يمكنه اتخاذ قرارات حياة أو موت على أنه أمر بالغ الأهمية. بدون ذلك، لا يقتصر الخطر على الأخطاء المأساوية في ساحة المعركة فحسب، بل يشمل أيضًا تآكل المسؤولية الإنسانية في الحرب.

العسكرة والأسلحة المستقلة في الذكاء الاصطناعي

نقص الشفافية والمساءلة

تعمل معظم أنظمة الذكاء الاصطناعي المتقدمة اليوم كـ “صناديق سوداء” – حيث يكون من الصعب فهم منطقها الداخلي حتى لمطوريها. يخلق هذا النقص في الشفافية خطر عدم القدرة على تفسير أو الطعن في قرارات الذكاء الاصطناعي، وهو مشكلة خطيرة في مجالات مثل العدالة والمالية أو الرعاية الصحية حيث يمكن أن يكون التفسير مطلبًا قانونيًا أو أخلاقيًا.

إذا رفض الذكاء الاصطناعي منح شخص قرضًا، أو شخص تشخيص مرض، أو قرر من يحصل على الإفراج المشروط من السجن، نرغب بطبيعة الحال في معرفة السبب. مع بعض نماذج الذكاء الاصطناعي (وخاصة الشبكات العصبية المعقدة)، يكون تقديم مبرر واضح أمرًا صعبًا.

يمكن أن يؤدي “نقص الشفافية” إلى تقويض الثقة و“قد يقوض أيضًا إمكانية الطعن الفعال في القرارات المبنية على نتائج أنظمة الذكاء الاصطناعي”، كما تشير اليونسكو، “وقد ينتهك بذلك الحق في محاكمة عادلة ووسيلة انتصاف فعالة.”

بمعنى آخر، إذا لم يتمكن المستخدمون أو المنظمون من فهم كيفية اتخاذ الذكاء الاصطناعي للقرارات، يصبح من شبه المستحيل محاسبة أي شخص على الأخطاء أو التحيزات التي تنشأ.

هذه الفجوة في المساءلة تشكل خطرًا كبيرًا: قد تتجنب الشركات المسؤولية بإلقاء اللوم على “الخوارزمية”، وقد يُترك الأفراد المتضررون بدون ملاذ. لمواجهة ذلك، يدعو الخبراء إلى تقنيات الذكاء الاصطناعي القابل للتفسير، والتدقيق الصارم، والمتطلبات التنظيمية التي تجعل قرارات الذكاء الاصطناعي قابلة للتتبع إلى سلطة بشرية.

في الواقع، تصر المبادئ الأخلاقية العالمية على أنه يجب “دائمًا أن يكون من الممكن نسب المسؤولية الأخلاقية والقانونية” لسلوك أنظمة الذكاء الاصطناعي إلى شخص أو منظمة. يجب أن يظل البشر مسؤولين في النهاية، ويجب أن يساعد الذكاء الاصطناعي بدلاً من أن يحل محل الحكم البشري في الأمور الحساسة. وإلا، فإننا نخاطر بخلق عالم تُتخذ فيه قرارات مهمة بواسطة آلات غامضة، وهو وصفة للظلم.

نقص الشفافية والمساءلة في استخدام الذكاء الاصطناعي في مكان العمل

تركيز السلطة وعدم المساواة

ثورة الذكاء الاصطناعي لا تحدث بشكل متساوٍ في جميع أنحاء العالم – عدد قليل من الشركات والدول يهيمنون على تطوير الذكاء الاصطناعي المتقدم، وهذا يحمل مخاطره الخاصة.

تتطلب نماذج الذكاء الاصطناعي المتطورة موارد هائلة من البيانات والمواهب والحوسبة التي لا تمتلكها سوى عمالقة التكنولوجيا (والحكومات الممولة جيدًا) حاليًا. أدى ذلك إلى “سلسلة توريد عالمية متكاملة، مركزة للغاية، تفضل عددًا قليلاً من الشركات والدول”، وفقًا للمنتدى الاقتصادي العالمي.

يمكن أن يترجم هذا التركيز في قوة الذكاء الاصطناعي إلى سيطرة احتكارية على تقنيات الذكاء الاصطناعي، مما يحد من المنافسة وخيارات المستهلكين. كما يثير خطر أن أولويات تلك الشركات أو الدول القليلة ستشكل الذكاء الاصطناعي بطرق لا تأخذ في الاعتبار المصلحة العامة الأوسع.

لاحظت الأمم المتحدة “خطر أن تُفرض تقنية [الذكاء الاصطناعي] على الناس دون أن يكون لهم رأي في كيفية استخدامها” عندما يقتصر التطوير على قلة قوية.

يمكن أن يؤدي هذا الخلل إلى تفاقم عدم المساواة العالمية: تتقدم الدول والشركات الغنية من خلال الاستفادة من الذكاء الاصطناعي، بينما تفتقر المجتمعات الفقيرة إلى الوصول إلى أحدث الأدوات وتعاني من فقدان الوظائف دون الاستفادة من مزايا الذكاء الاصطناعي. بالإضافة إلى ذلك، قد يعيق قطاع الذكاء الاصطناعي المركز الابتكار (إذا لم يتمكن القادمون الجدد من المنافسة مع موارد الشركات القائمة) ويشكل مخاطر أمنية (إذا تم التحكم في البنية التحتية الحيوية للذكاء الاصطناعي من قبل عدد قليل فقط من الكيانات، يصبح نقطة فشل أو تلاعب واحدة).

يتطلب معالجة هذا الخطر التعاون الدولي وربما تنظيمات جديدة لديمقراطية تطوير الذكاء الاصطناعي – على سبيل المثال، دعم البحث المفتوح، وضمان الوصول العادل إلى البيانات والحوسبة، وصياغة سياسات (مثل قانون الذكاء الاصطناعي المقترح في الاتحاد الأوروبي) لمنع الممارسات المسيئة من قبل “حراس بوابة الذكاء الاصطناعي”. ستساعد بيئة ذكاء اصطناعي أكثر شمولاً على ضمان توزيع فوائد الذكاء الاصطناعي عالميًا، بدلاً من توسيع الفجوة بين من يملكون التكنولوجيا ومن لا يملكونها.

تركيز السلطة وعدم المساواة

الأثر البيئي للذكاء الاصطناعي

غالبًا ما يُغفل في مناقشات مخاطر الذكاء الاصطناعي بصمته البيئية. يستهلك تطوير الذكاء الاصطناعي، وخاصة تدريب نماذج التعلم الآلي الكبيرة، كميات هائلة من الكهرباء وقوة الحوسبة.

تتطلب مراكز البيانات المليئة بآلاف الخوادم التي تستهلك طاقة عالية لمعالجة كميات هائلة من البيانات التي تتعلم منها أنظمة الذكاء الاصطناعي. هذا يعني أن الذكاء الاصطناعي يمكن أن يساهم بشكل غير مباشر في انبعاثات الكربون وتغير المناخ.

وجد تقرير حديث لوكالة الأمم المتحدة أن الانبعاثات الكربونية غير المباشرة لأربع شركات تقنية رائدة في مجال الذكاء الاصطناعي ارتفعت بمعدل متوسط 150% من 2020 إلى 2023، ويرجع ذلك إلى حد كبير إلى متطلبات الطاقة لمراكز بيانات الذكاء الاصطناعي.

مع تزايد الاستثمار في الذكاء الاصطناعي، من المتوقع أن ترتفع الانبعاثات الناتجة عن تشغيل نماذج الذكاء الاصطناعي بشكل حاد – حيث توقع التقرير أن أكبر أنظمة الذكاء الاصطناعي قد تصدر أكثر من 100 مليون طن من ثاني أكسيد الكربون سنويًا، مما يضع ضغطًا كبيرًا على البنية التحتية للطاقة.

للتوضيح، فإن مراكز البيانات التي تشغل الذكاء الاصطناعي تدفع استخدام الكهرباء للارتفاع “أربع مرات أسرع من الزيادة العامة في استهلاك الكهرباء”.

بعيدًا عن انبعاثات الكربون، يمكن للذكاء الاصطناعي أيضًا استهلاك كميات كبيرة من المياه للتبريد وإنتاج نفايات إلكترونية مع ترقية الأجهزة بسرعة. إذا تُرك دون رقابة، قد يقوض الأثر البيئي للذكاء الاصطناعي جهود الاستدامة العالمية.

تدعو هذه المخاطر إلى جعل الذكاء الاصطناعي أكثر كفاءة في استخدام الطاقة واستخدام مصادر طاقة أنظف. يطور الباحثون تقنيات الذكاء الاصطناعي الخضراء لتقليل استهلاك الطاقة، وقد تعهدت بعض الشركات بتعويض تكاليف الكربون الناتجة عن الذكاء الاصطناعي. ومع ذلك، لا يزال هذا مصدر قلق ملح حيث قد يحمل السباق نحو الذكاء الاصطناعي ثمنًا بيئيًا باهظًا. إن موازنة التقدم التكنولوجي مع المسؤولية البيئية هو تحدٍ آخر يجب على المجتمع التعامل معه أثناء دمج الذكاء الاصطناعي في كل مكان.

الأثر البيئي للذكاء الاصطناعي

المخاطر الوجودية وطويلة الأمد

بعيدًا عن المخاطر الفورية، يحذر بعض الخبراء من مخاطر تخمينية وطويلة الأمد من الذكاء الاصطناعي – بما في ذلك احتمال وجود ذكاء اصطناعي متقدم يتجاوز سيطرة البشر. بينما أنظمة الذكاء الاصطناعي الحالية ضيقة القدرات، يعمل الباحثون بنشاط نحو ذكاء اصطناعي عام قد يتفوق على البشر في العديد من المجالات.

يثير هذا أسئلة معقدة: إذا أصبح الذكاء الاصطناعي أكثر ذكاءً أو استقلالية بشكل كبير، هل يمكن أن يتصرف بطرق تهدد وجود البشرية؟ رغم أن هذا يبدو كخيال علمي، فقد أعربت شخصيات بارزة في مجتمع التكنولوجيا عن قلقها بشأن سيناريوهات “الذكاء الاصطناعي الخارج عن السيطرة”، وتتخذ الحكومات هذا النقاش على محمل الجد.

في عام 2023، استضافت المملكة المتحدة قمة عالمية لسلامة الذكاء الاصطناعي لمناقشة مخاطر الذكاء الاصطناعي المتقدم. لا يوجد إجماع علمي موحد – يعتقد البعض أن الذكاء الاصطناعي فائق الذكاء لا يزال على بعد عقود أو يمكن الحفاظ على توافقه مع القيم الإنسانية، بينما يرى آخرون احتمالًا صغيرًا لكنه غير معدوم لنتائج كارثية.

أبرز تقرير السلامة الدولي الأخير للذكاء الاصطناعي أن “الخبراء لديهم آراء مختلفة حول خطر فقدان البشرية السيطرة على الذكاء الاصطناعي بطريقة قد تؤدي إلى نتائج كارثية.”

بمعنى آخر، هناك اعتراف بأن الخطر الوجودي من الذكاء الاصطناعي، مهما كان بعيد الاحتمال، لا يمكن استبعاده تمامًا. قد ينطوي هذا السيناريو على ذكاء اصطناعي يسعى لتحقيق أهدافه على حساب رفاهية الإنسان (المثال الكلاسيكي هو ذكاء اصطناعي، إذا تمت برمجته بشكل خاطئ، يقرر القيام بشيء ضار على نطاق واسع لأنه يفتقر إلى الحس السليم أو القيود الأخلاقية).

بينما لا يمتلك أي ذكاء اصطناعي اليوم وكالة بمثل هذا المستوى، فإن وتيرة تقدم الذكاء الاصطناعي سريعة وغير متوقعة، وهو عامل خطر بحد ذاته. يعني الاستعداد للمخاطر طويلة الأمد الاستثمار في أبحاث توافق الذكاء الاصطناعي (لضمان بقاء أهداف الذكاء الاصطناعي متوافقة مع القيم الإنسانية)، وإبرام اتفاقيات دولية حول أبحاث الذكاء الاصطناعي عالية المخاطر (مثل المعاهدات حول الأسلحة النووية أو البيولوجية)، والحفاظ على الإشراف البشري مع ازدياد قدرات أنظمة الذكاء الاصطناعي.

يحمل مستقبل الذكاء الاصطناعي وعودًا هائلة، لكنه أيضًا مليء بعدم اليقين – وتقتضي الحكمة أن نأخذ في الاعتبار حتى المخاطر منخفضة الاحتمال وعالية التأثير في تخطيطنا طويل الأمد.

>>> انقر لمعرفة المزيد: فوائد الذكاء الاصطناعي للأفراد والشركات

المخاطر الوجودية وطويلة الأمد في الذكاء الاصطناعي


غالبًا ما يُشبه الذكاء الاصطناعي بمحرك قوي يمكنه دفع البشرية إلى الأمام – لكن بدون فرامل وتوجيه، يمكن لهذا المحرك أن ينحرف عن المسار. كما رأينا، فإن مخاطر استخدام الذكاء الاصطناعي متعددة الأوجه: من القضايا الفورية مثل الخوارزميات المتحيزة، والأخبار المزيفة، وانتهاكات الخصوصية، واضطرابات الوظائف، إلى التحديات المجتمعية الأوسع مثل التهديدات الأمنية، واتخاذ القرارات “الصندوق الأسود”، واحتكارات شركات التكنولوجيا الكبرى، والضغط البيئي، وحتى شبح فقدان السيطرة على ذكاء اصطناعي فائق الذكاء في المستقبل البعيد.

لا تعني هذه المخاطر أنه يجب علينا إيقاف تطوير الذكاء الاصطناعي؛ بل تؤكد الحاجة الملحة إلى حوكمة مسؤولة للذكاء الاصطناعي وممارسات أخلاقية.

تتعاون الحكومات والمنظمات الدولية وقادة الصناعة والباحثون بشكل متزايد لمعالجة هذه المخاوف – على سبيل المثال، من خلال أُطُر مثل إطار إدارة مخاطر الذكاء الاصطناعي الصادر عن المعهد الوطني للمعايير والتقنية في الولايات المتحدة (لتحسين موثوقية الذكاء الاصطناعي)، وتوصية اليونسكو العالمية لأخلاقيات الذكاء الاصطناعي، وقانون الذكاء الاصطناعي في الاتحاد الأوروبي.

تهدف هذه الجهود إلى تعظيم فوائد الذكاء الاصطناعي مع تقليل مخاطره، وضمان خدمة الذكاء الاصطناعي للبشرية وليس العكس. في النهاية، فهم مخاطر الذكاء الاصطناعي هو الخطوة الأولى لإدارتها. من خلال البقاء على اطلاع والمشاركة في كيفية تطوير واستخدام الذكاء الاصطناعي، يمكننا المساعدة في توجيه هذه التكنولوجيا التحويلية نحو مسار آمن وعادل ومفيد للجميع.