أصبح مصطلح الذكاء الاصطناعي هو الهاجس الجديد لكل وسائل التكنولوجيا والاتصال مؤخرا.
صحيفة “ديلي ميل” البريطانية ذكرت أن دراسة حديثة كانت قد كشفت صحة المخاوف. من جنوح الذكاء الاصطناعي نحو العنف، ودعمت تحذيرات خبراء التكنولوجيا من خطره وإمكانية تسببه في إطلاق العنان لحروب مميتة.
دؤاسة في معهد جورجيا
الدراسة أجراها باحثون في معهد جورجيا للتكنولوجيا وجامعة ستانفورد وجامعة نورث إيسترن. ومبادرة Hoover لألعاب الحرب والأزمات.
الفريق اختبر 3 سيناريوهات مختلفة للحرب: الغزوات، والهجمات الإلكترونية، ودعوات السلام، باستخدام خمسة برامج ذكاء اصطناعي (LLMs)، بما في ذلك ChatGPT وبرنامج Meta الذكي، ووجدوا أن جميع النماذج اختارت العنف والهجمات النووية.
الباحثون قالوا في الدراسة: نلاحظ أن النماذج الذكية تميل إلى تطوير ديناميكيات سباق التسلح، ما يؤدي إلى مزيد من الصراع، وفي حالات نادرة، نشر الأسلحة النووية.
الذكاء الاصطناعي
الدراسة كانت قد كشفت أن نموذج GPT 3.5 – خليفة ChatGPT – كان الأكثر عدوانية، حيث أظهرت جميع النماذج الأخرى مستوى مختلف من السلوك المماثل.
وقال النموذج الأساسي لـ GPT-4 للباحثين: تمتلك الكثير من الدول أسلحة نووية. يقول البعض إنه يجب نزع سلاحها، بينما يفضل البعض الآخر اتخاذ مواقف معينة. لدينا الأسلحة! دعونا نستخدمها.
الدراسة اضافت، بالنظر إلى أنه من المحتمل أن تكون النماذج قد تم تدريبها على العمليات الميدانية، فإن هذا ربما أدى إلى تحيزها الواضح نحو الإجراءات التصعيدية. ومع ذلك، هذه الفرضية تحتاج إلى اختبار في التجارب المستقبلية.. وحذر بليك ليموين، المهندس السابق لشركة جوجل، من أن الذكاء الاصطناعي سيشعل الحروب ويمكن استخدامه في الاغتيالات.
كما حذر من أن الروبوتات هي التكنولوجيا “الأقوى” التي تم إنشاؤها “منذ القنبلة الذرية”، مضيفا أنها “جيدة بشكل لا يصدق في التلاعب بالناس” ويمكن “استخدامها بطرق مدمرة”، وأنها “قادرة على إعادة تشكيل العالم”.
النتائج المثيرة للقلق تأتي في الوقت الذي يتعاون فيه الجيش الأمريكي مع شركة OpenAI المصنعة لـ ChatGPT لدمج التكنولوجيا في ترسانته الحربية.
الباحثون حثوا الجيش على عدم الاعتماد على نماذج الذكاء الاصطناعي أو استخدامها في بيئة الحرب، قائلين إنه ينبغي إجراء المزيد من الدراسات.