تحرير نصيرة بنيوال/ جريدة أرض بلادي
تابع الجزء الثاني : الظلال على اللوحة :سلبيات ومخاطر الذكاء الاصطناعي
2.2 الآثار الاجتماعية والأخلاقية العميقة
بعيدا عن التحديات التقنية، يثير صعود الذكاء الاصطناعي تساؤلات اجتماعية وأخلاقية عميقة تمس نماذجنا المجتمعية وقيمنا وحقوقنا الأساسية.
يعد تأثير الذكاء الاصطناعي على سوق العمل من أكثر القضايا إثارة للنقاش. فرغم أن الذكاء الاصطناعي قادر على رفع الإنتاجية وخلق وظائف جديدة، إلا أنه يهدد أيضا بأتمتة عدد كبير من المهام التي يقوم بها البشر حاليا، مما قد يؤدي إلى فقدان وظائف جماعي في بعض القطاعات مثل النقل، واللوجستيك، وخدمة العملاء، وبعض المهام الإدارية أو التحليلية.
وقد تؤدي هذه التحولات إلى تفاقم الفوارق الاجتماعية إذا لم توزع مكاسب الإنتاجية بشكل عادل، وإذا لم يوفر الدعم الكافي للعمال الذين تهدد وظائفهم، لمساعدتهم على التوجه نحو مهارات جديدة وفرص عمل بديلة.
تبرز هذه التحديات ضرورة تحديث أنظمة التعليم والتكوين المهني بما يتماشى مع متطلبات العصر الرقمي، من أجل تعزيز قدرة المجتمعات على التكيف مع التغييرات التي يفرضها الذكاء الاصطناعي.
ومن جهة أخرى، تثير أنظمة الذكاء الاصطناعي قضايا تتعلق بالخصوصية وحماية البيانات. فالكثير من تطبيقاتها تعتمد على جمع وتحليل كميات هائلة من البيانات الشخصية (السلوكية، الطبية، المالية…). هذه الممارسات قد تهدد الحق في الخصوصية، خاصة في حال غياب الشفافية أو في ظل استخدام البيانات لأغراض تجارية أو رقابية بدون موافقة واضحة من الأفراد المعنيين.
علاوة على ذلك، يمكن أن تستخدم تقنيات الذكاء الاصطناعي في مراقبة الأفراد وتتبع تحركاتهم وسلوكياتهم، كما هو الحال في بعض الأنظمة المعروفة بـ”الرقابة الذكية”. وهو ما قد يؤدي إلى أشكال جديدة من التحكم الاجتماعي، ويثير تساؤلات خطيرة حول الحريات الفردية وحدود تدخل الدولة أو الشركات في الحياة الخاصة.
ولا يقل خطورة عن ذلك خطر التحيز والتمييز الذي قد تحمله أنظمة الذكاء الاصطناعي. فهذه الأنظمة تتعلم من البيانات، وإذا كانت تلك البيانات منحازة أو غير متوازنة، فإن النماذج التي تنتجها قد تكرس أو حتى تضخم هذه الانحيازات. وقد تم توثيق عدة حالات لأنظمة ذكاء اصطناعي تتخذ قرارات تمييزية في التوظيف، أو في منح القروض، أو حتى في القرارات القضائية.
وأمام هذه التحديات، تبرز الحاجة الملحة لوضع أطر أخلاقية وقانونية واضحة لتنظيم تطوير واستخدام الذكاء الاصطناعي، بما يضمن احترام حقوق الإنسان، والعدالة، والشفافية، والمساءلة.
2.3 التهديدات الأمنية والبيئية
إلى جانب التحديات التقنية والآثار الاجتماعية، يثير الذكاء الاصطناعي أيضا مخاطر أمنية وبيئية على نطاق أوسع.
على المستوى الأمني، يمكن استخدام تقنيات الذكاء الاصطناعي لأغراض خبيثة، مثل تطوير أدوات هجومية سيبرانية أكثر تطورا، أو تصميم برامج خبيثة قادرة على التكيف مع أنظمة الحماية وتجاوزها تلقائيا. كما أن الذكاء الاصطناعي يساهم في تحسين قدرات المراقبة الجماعية، ويستخدم في تطوير تقنيات التعرف على الوجوه، والتنصت، وتحليل السلوكيات، مما يشكل تهديدا خطيرا على الحريات العامة والحقوق الأساسية، خصوصا في الأنظمة الاستبدادية.
أحد أكثر السيناريوهات المثيرة للقلق هو استخدام الذكاء الاصطناعي في المجال العسكري. فقد بدأت بعض الدول بالفعل في تطوير أسلحة ذاتية التشغيل تعتمد على الذكاء الاصطناعي لاتخاذ قرارات هجومية بدون تدخل بشري مباشر. هذا النوع من التكنولوجيا يطرح أسئلة خطيرة حول المسؤولية، والتحكم، والتصعيد المحتمل للنزاعات المسلحة. هل من المقبول أخلاقيا أن تتخذ آلة قرارا بقتل إنسان؟ ومن سيتحمل المسؤولية في حال وقوع خطأ قاتل؟
على الجانب البيئي، يشكل تطوير وتشغيل أنظمة الذكاء الاصطناعي استهلاكا هائلا للطاقة. فعملية تدريب نماذج الذكاء الاصطناعي، وخاصة النماذج الضخمة القائمة على التعلم العميق، تتطلب موارد حاسوبية هائلة، مما يؤدي إلى انبعاثات كربونية كبيرة. فعلى سبيل المثال، قد يتطلب تدريب نموذج كبير واحد استهلاكا للطاقة يعادل ما تستهلكه عدة سيارات خلال سنة كاملة. وإذا لم تتم إدارة هذا الأثر بشكل مسؤول، فقد يساهم الذكاء الاصطناعي في تفاقم أزمة التغير المناخي.
ومن جانب آخر، قد يؤدي السباق العالمي نحو تطوير الذكاء الاصطناعي إلى نوع من “سباق التسلح” الرقمي بين الدول، حيث تركز الحكومات والشركات على التقدم التكنولوجي على حساب السلامة، والأخلاقيات، والشفافية، مما يزيد من خطر الحوادث والانتهاكات.
ح يتبع……