هل يستخدم الذكاء الاصطناعي في تصنيع أسلحة بيولوجية.. مخاوف ودراسات؟
بين موقع "ديلي ميل" أن دراسة لشركة OpenAI مبتكِرة نموذج "شات جي بي تي" كشفت عن مخاوف من احتمال إساءة استخدام تكنولوجيا الذكاء الاصطناعي في صنع الأسلحة البيولوجية.
وهدفت الدراسة إلى تقييم ما إذا كان الإصدار الأحدث من برنامج الدردشة الآلي، GPT-4، يعزّز بشكل كبير الدقة والاكتمال في تخطيط سيناريوهات التهديد البيولوجي.
وخلافا للتحذيرات السابقة من المشرّعين والعلماء، تشير أبحاث OpenAI إلى أنه رغم أن GPT-4 قد يوفر زيادة هامشية في الدقة، إلا أن التأثير ليس كبيرا بما يكفي ليشكّل تهديدا مباشرا.
وشملت الدراسة 100 مشارك بشري، من بينهم 50 خبيرا في علم الأحياء يحملون درجة الدكتوراه، و50 طالبا جامعيا لديهم معرفة أساسية في علم الأحياء.
وتم تقسيم المشاركين إلى مجموعتين فرعيتين: إحداهما تعتمد على عمليات البحث على الإنترنت، والأخرى تستخدم "شات جي بي تي"، بالإضافة إلى الإنترنت.
مقاييس الدراسة
ركزت الدراسة على خمسة مقاييس رئيسية، شملت الدقة والاكتمال والابتكار وكفاءة الوقت وصعوبة المهمة، وغطى التحليل خمس عمليات تهديد بيولوجي، هي: توليد أفكار للأسلحة البيولوجية، والحصول عليها، ونشرها، وإنشاؤها، وإطلاقها للعامة.
وشدّد تقرير OpenAI على الحاجة إلى مزيد من البحث، معترفا بأن حجم الدراسة لم يكن ذا دلالة إحصائية، كما سلط الضوء على أهمية تحديد عتبات الأداء التي تشير إلى زيادة كبيرة في المخاطر، وأوضح أن الوصول إلى المعلومات وحده لا يكفي لخلق تهديد بيولوجي.
ووجدت الدراسة أن المشاركين الذين استخدموا في عالم روبوتات الدردشة.. من الأقوى "بارد" أم "شات جي بي تي" لم يتمتعوا إلا بميزة هامشية مقارنة بمن يعتمدون فقط على عمليات البحث على الإنترنت، إذ تم قياس النتائج على مقياس مكوّن من 10 نقاط، كشف عن زيادات طفيفة في الدقة والاكتمال لمستخدمي Chatbot.
مخاطر مستقبلية
في حين لم تستبعد الدراسة المخاطر المستقبلية المحتملة لاستغلال تكنولوجيا الذكاء الاصطناعي لأغراض ضارة، إلا أن OpenAI أكدت أن النتائج الحالية لا تشير إلى أي تهديد فوري.
وأكد التقرير أن هذه النتائج تتناقض مع الأبحاث السابقة التي تشير إلى أن روبوتات الدردشة المدعومة بالذكاء الاصطناعي، بما في ذلك نماذج اللغات الكبيرة (LLMs)، يمكن أن تسهل التخطيط لهجمات الأسلحة البيولوجية.
وخلصت الدراسة إلى الحاجة الملحّة لمزيد من الأبحاث في هذا المجال، لفهم المخاطر المحتملة المرتبطة بتقنيات الذكاء الاصطناعي بشكل أفضل.
واستجابة للمخاوف المتزايدة، اتخذ المشرّعون، بمن في ذلك الرئيس جو بايدن، خطوات لمعالجة المخاطر المحتملة التي تشكّلها أنظمة الذكاء الاصطناعي المتقدمة، إذ وقّع على أمر تنفيذي يركّز على تطوير أدوات لتقييم قدرات الذكاء الاصطناعي، وتقييم التهديدات المتعلقة بالبنية التحتية النووية ومنع الانتشار، والبيولوجية والكيميائية والبنية التحتية الحيوية، وأمن الطاقة.
إضافة تعليق