دراسة حديثة: الذكاء الاصطناعي يزداد قوة .. وغموضاً! – DW – 2023/10/20
  1. تخطي إلى المحتوى
  2. تخطي إلى القائمة الرئيسية
  3. تخطي إلى المزيد من صفحات DW

دراسة حديثة: الذكاء الاصطناعي يزداد قوة .. وغموضاً!

٢٠ أكتوبر ٢٠٢٣

على الرغم من التطور السريع والمتلاحق في مجال الذكاء الاصطناعي، أكدت دراسة حديثة بجامعة ستانفورد أن الكثير من الشركات تحيط نماذجها من الذكاء الاصطناعي بالكثير من الغموض ما يثير مخاوف من انعدام المحاسبة وغياب الشفافية.

https://p.dw.com/p/4Xodl
صورة رمزية للذكاء الاصطناعي
يخشى الخبراء من مدى السرية والغموض اللذان تحيط شركات التقنية بهما عمليات تطوير نماذج الذكاء الاصطناعي الخاصة بهاصورة من: Christian Ohde/Chromorange/picture alliance

في مارس/آذار من هذا العام، نشرت شركة أوبن إيه آي تفاصيل نموذج الذكاء الاصطناعي تشات جي بي تي ChatGPT، واحتوت الصفحات المائة على الكثير من المعلومات، لكن الباحثين أغفلوا بعض التفاصيل المهمة، لعل أحدها كيفية بناء هذا النموذج أو طريقة عمله.

إخفاء "متعمد" للمعلومات؟

وفي تقرير مطول يشير موقع "وايرد" الأميركي المتخصص في التقنية إلى أن هذا الأمر لم يكن ذلك سهواً عرضياً، حيث تحرص كبرى شركات الذكاء الاصطناعي على إبقاء طريقة عمل خوارزمياتها المتطورة محاطة بالغموض، ويرجع ذلك جزئياً إلى الخوف من إساءة استخدام التكنولوجيا وأيضاً بسبب المخاوف من المنافسين.

في هذا الصدد، أظهرت دراسة أصدرها باحثون في جامعة ستانفورد هذا الأسبوع مدى عمق السرية المفروضة حول نموذج الذكاء الاصطناعي GPT-4 وأنظمة الذكاء الاصطناعي المتطورة الأخرى، إذ يقول بعض باحثي الذكاء الاصطناعي إن هناك تحول غامض في أساس الطريقة التي يتم من خلالها عمل تلك الأنظمة لا يعلم عنه الكثيرون شيئاً، فيما حذر خبراء آخرون من أن يصبح هذا المجال أقل انفتاحاً وأقل احتمالاً لإنتاج مادة علمية متجددة وأن يقل بالتالي حجم المساءلة ومعه تنخفض الموثوقية والسلامة.

بحثت الدراسة في 10 أنظمة مختلفة للذكاء الاصطناعي واسعة الانتشار من شركات مثل غوغل وأوبن إيه آي وأمازون، كما قام الباحثون بفحص نماذج الذكاء الاصطناعي "مفتوحة المصدر" التي يمكن تنزيلها مجاناً بما في ذلك نموذج توليد الصور والفيديوهات.

الكل سقط في اختبار الشفافية!

قام فريق ستانفورد بعرض هذه النماذج على 13 معياراً مختلفاً، بما في ذلك مدى شفافية بيانات الجهة القائمة على التطوير، وأُطر البرامج المستخدمة، واستهلاك الطاقة في المشروع.

ومن خلال هذه المقاييس ، وجد الباحثون أنه لا يوجد نموذج حقق أكثر من 54 في المائة على مقياس الشفافية على كافة المعايير، بما فيها النماذج مفتوحة المصدر، حيث لا يعرف أحد على وجه التحديد طبيعة البيانات المستخدمة في تدريبها، ولا كيف تم جمع هذه البيانات وتنظيمها، أو من قام بالعمل.

في هذا الإطار، قال ناثان شتراوس ، المتحدث باسم أمازون ، إنه "من السابق لأوانه قياس شفافية النموذج الأساسي قبل أن يكون جاهزاً لطرحه للناس"، فيما رفضت ميتا التعليق على الدراسة ولم تستجب OpenAI لطلب التعليق.

يقول ريشي بوماساني، طالب الدكتوراه في جامعة ستانفورد وأحد أفراد الفريق البحثي إن الدراسة تعكس حقيقة أن الذكاء الاصطناعي أصبح أكثر غموضاً حتى عندما أصبح أكثر تأثيراً في حياتنا، وأن هذا "يتناقض إلى حد كبير مع الطفرة الكبيرة الحادثة مؤخراً في الذكاء الاصطناعي"، وأن "الانفتاح السابق في عرض البيانات ساهم في الإسراع من زيادة قدرات هذه النماذج بما في ذلك التعرف على النصوص والأصوات والصور".

دعوات للانفتاح 

الأمر نفسه دعا إليه علي فرهادي عالم الكمبيوتر والأستاذ في جامعة واشنطن والرئيس التنفيذي لمعهد ألين للذكاء الاصطناعي، إذ دعا إلى "الانفتاح الجذري" لنماذج الذكاء الاصطناعي لإضفاء الطابع الديمقراطي على البحث والتطوير في هذا المجال الذي يعتقد الكثيرون أنه أهم تقدم تكنولوجي للبشرية منذ عقود، بحسب ما ذكرت صحيفة نيويورك تايمز.

وتقول الشركات إن نهج السرية المحيط بتطوير هذا القطاع يقلل من خطر قيام لصوص الانترنت وجواسيس التقنية باختطاف التكنولوجيا لإغراق الإنترنت بالمعلومات الخاطئة والاحتيال أو الانخراط في سلوك أكثر خطورة، وفق ما أفادت نيويورك تايمز.

يشير تقرير ستانفورد أيضاً إلى أن نماذج الذكاء الاصطناعي لا تحتاج إلى أن تكون سرية للغاية لأسباب تنافسية. يقول كيفن كليمان، الباحث في جامعة ستانفورد، إن حقيقة أن مجموعة من النماذج الرائدة تسجل درجات عالية نسبياً في مقاييس مختلفة للشفافية تشير إلى أن جميعها يمكن أن تصبح أكثر انفتاحا دون أن تخسر أمام منافسيها.

وفي الوقت الذي يحاول فيه خبراء الذكاء الاصطناعي معرفة إلى أين سيؤدي هذا التطور الشديد الحادث في وقت قصير، يقول البعض إن السرية تخاطر بجعل المجال أقل تخصصاً من الناحية العلمية والبحثية ليصبح تخصصاً مدفوعاً بالربح فقط.

عماد حسن/ ع.أ.ج