هل يهدد الذكاء الاصطناعي البشرية بالفعل ويؤثر على وظائفنا في المستقبل؟ من الواضح إن تكنولوجيا الذكاء الاصطناعي تتطور بشكل كبير وتعتمد على تقنيات التعلم الآلي ومحاكاة أداء البشر، وبعد فترة من الفترات تتفوق على هذا الأداء بصورة كبيرة جدا وتستطيع القيام بأعمال بدقة وسرعة أكبر بكثير من الصورة البشرية.
دعوة للتوقف مؤقتا عن تطوير برامج الذكاء الاصطناعي لإعتماد أنظمة حماية منها
دعا إيلون ماسك ومجموعة من خبراء الذكاء الاصطناعي إلى التوقف مؤقتا ولمدة ستة أشهرعن تطوير أنظمة أقوى من روبوت الدردشة ” شات جي.بي.تي-4″ الذي أطلقته شركة أوبن إيه والتي أثارت جدلا واسعا في الآونة الأخيرة.
وفي العريضة المنشورة عبر موقع “فيوتشر اوف لايف دوت اورج، طالب الخبراء بوقف موقّت لعمليات تطوير برامج الذكاء الاصطناعي إلى حين اعتماد أنظمة حماية منها، كإنشاء هيئات تنظيمية جديدة خاصة بهذا المجال، ومراقبة أنظمة الذكاء الاصطناعي، وتقنيات تساعد على تمييز الأعمال الفعلية من تلك المُبتكرة من برامج للذكاء الاصطناعي، وإنشاء مؤسسات قادرة على التعامل مع “المشاكل الاقتصادية والسياسية التي تتسبّب بها هذه البرامج”.
أن أكبر خطر يهدد البشرية هو الذكاء الاصطناعي، حيث يحل محل مهن كثيرة منها المذيع الروبوت، وبعد سنوات قليلة قد يقوم بإجراء البرامج التلفزيونية مذيع روبوت، وأصبح موجودا ويقدم برامج وحلقات، وهناك مهنة المحامي حيث تم الإعلان عن أول روبوت محامي سيبدأ في الحصول على قضايا خاصة به في الشهر القادم”.
وقالت رسالة إيلون ماسك “هل يجب أن نسمح للآلات بإغراق قنواتنا الإعلامية بالدعاية والكذب؟ هل ينبغي أن نطور عقولا غير بشرية قد تفوقنا عددنا وذكاء في النهاية وتتفوق علينا وتحل محلنا؟”، “يجب عدم تفويض مثل هذه القرارات لقادة للتكنولوجيا غير منتخبين”، ووقع أكثر من ألف شخص على الرسالة، من بينهم ماسك.
مع العلم أن لم يكن “سام ألتمان وساندر بيتشاي وساتيا ناديلا”، الرؤساء التنفيذيون لشركات أوبن إيه.آي وألفابت ومايكروسوفت، من بين الموقعين على الرسالة.
فقد الوظائف أحد تأثيرات الذكاء الاصطناعي السلبية علي البشرية
وسيؤثر على وظائفنا في المستقبل، لأن الذكاء الاصطناعي مسؤول عن خطوط إنتاج كاملة في عدد من المصانع والمنشآت، التكنولوجيا المعتمدة على الذكاء الاصطناعي تقوم بمساعدة الإنسان سواء كان هذا العنصر البشري يقوم ببرمجة الذكاء الاصطناعي وتنفيذ المهام أو الإشراف على الأداء الخاص به، كما يمتاز الذكاء الاصطناعي بالتعلم الآلي، وبالتالي قد يشكل وعيا خاصا به، وهذا الكلام ليس خيالا علميا لكنه واقع، حيث شكل جوجل إدراكا ذاتيا خاصا به وهو ما يدق ناقوس الخطر”.
ويرجع سبب هذه المخاوف في وقت الذي جذب فيه روبوت الدردشة (شات جي.بي.تي) انتباه المشرعين الأمريكيين الذين تساءلوا عن تأثيره على الأمن القومي والتعليم.
كما أن منظمة اليونسكو دعت بلدان العالم إلى تطبيق توصيتها الصادرة في عام 2021 لتنظيم الذكاء الاصطناعي، بعدما دعا إيلون ماسك ومئات الخبراء إلى وقف تطوير هذه البرامج محذرين من “مخاطر كبيرة على البشرية”.
بالفعل “يحتاج العالم إلى قواعد أخلاقية أقوى للذكاء الاصطناعي، وهذا هو التحدي الذي نواجهه في وقتنا الحاضر”
وفي “إطار العمل المعياري العالمي الأول للاستخدام الأخلاقي للذكاء الاصطناعي”، وهي خريطة طريق للبلدان، تصف فيه طريقة الإفادة القصوى من فوائد الذكاء الاصطناعي مع تقليل المخاطر الناجمة عن هذه التكنولوجيا.
دعت اليونسكو جميع البلدان للانضمام إلى الحركة التي تقودها لتطوير ذكاء اصطناعي “مقامه الأخلاق”، مشيرة إلى أن “تقريرًا مرحليًا سيُقدّم خلال منتدى اليونسكو العالمي لأخلاقيات الذكاء الاصطناعي الذي يُقام في سلوفينيا في ديسمبر 2023”.
وفي النهاية بالفعل لا يجب أن نجازف بفقدان السيطرة، وتفويض هذه القرارات لقادة تكنولوجيين.