Elon Musk and experts call for halt in ‘giant AI experiments’

باريس: دعا الملياردير الملياردير ايلون موسك ومجموعة من الخبراء يوم الاربعاء الى التوقف في تطوير القوة القوية. الذكاء الاصطناعي (منظمة العفو الدولية) لإتاحة الوقت للتأكد من أنها آمنة.
رسالة مفتوحة ، موقعة من قبل أكثر من 1000 شخص حتى الآن ، بما في ذلك المؤسس المشارك لشركة Apple Steve Wozniak ، كان الدافع وراء إصدار GPT-4 من شركة OpenAI في سان فرانسيسكو.
تقول الشركة إن أحدث طراز لها أقوى بكثير من الإصدار السابق ، والذي تم استخدامه لتشغيل ChatGPT ، وهو روبوت قادر على توليد أجزاء من النص من أقصر المطالبات.
جاء في الرسالة المفتوحة بعنوان “إيقاف تجارب الذكاء الاصطناعي العملاقة مؤقتًا”: “يمكن لأنظمة الذكاء الاصطناعي ذات الذكاء التنافسي البشري أن تشكل مخاطر عميقة على المجتمع والإنسانية”.
وقالت: “يجب تطوير أنظمة ذكاء اصطناعي قوية فقط بمجرد أن نكون واثقين من أن آثارها ستكون إيجابية وأن مخاطرها ستكون تحت السيطرة”.
كان ماسك مستثمرًا أوليًا في شركة OpenAI ، وقضى سنوات في مجلس إدارتها ، وتقوم شركته Tesla بتطوير أنظمة الذكاء الاصطناعي للمساعدة في تشغيل تكنولوجيا القيادة الذاتية ، من بين تطبيقات أخرى.
تم التوقيع على الرسالة ، التي استضافها معهد Future of Life الممول من Musk ، من قبل نقاد بارزين بالإضافة إلى منافسي OpenAI مثل رئيس Stability AI عماد مصطفى.
اقتبس الخطاب من مدونة كتبها مؤسس OpenAI Sam Altman ، الذي اقترح أنه “في مرحلة ما ، قد يكون من المهم الحصول على مراجعة مستقلة قبل البدء في تدريب الأنظمة المستقبلية”.
كتب مؤلفو الرسالة المفتوحة: “نحن متفقون. هذه النقطة هي الآن”.
“لذلك ، ندعو جميع مختبرات الذكاء الاصطناعي إلى التوقف فورًا لمدة 6 أشهر على الأقل عن تدريب أنظمة الذكاء الاصطناعي الأكثر قوة من GPT-4.”
ودعوا الحكومات إلى التدخل وفرض تجميد إذا فشلت الشركات في الاتفاق.
يجب استخدام الأشهر الستة لتطوير بروتوكولات السلامة وأنظمة حوكمة الذكاء الاصطناعي وإعادة تركيز البحث على ضمان أن تكون أنظمة الذكاء الاصطناعي أكثر دقة وأمانًا و “جديرة بالثقة والولاء”.
لم تُفصِّل الرسالة الأخطار التي كشفت عنها GPT-4.
لكن الباحثين ، بمن فيهم جاري ماركوس من جامعة نيويورك ، الذي وقع الرسالة ، جادلوا منذ فترة طويلة بأن روبوتات الدردشة كاذبة كبيرة ولديها القدرة على أن تكون منتشرة على نطاق واسع للمعلومات المضللة.
ومع ذلك ، قارن المؤلف كوري دوكتورو صناعة الذكاء الاصطناعي بمخطط “ضخ وتفريغ” ، بحجة أن كلاً من إمكانات أنظمة الذكاء الاصطناعي وتهديدها قد تم المبالغة فيها بشكل كبير.
رسالة مفتوحة ، موقعة من قبل أكثر من 1000 شخص حتى الآن ، بما في ذلك المؤسس المشارك لشركة Apple Steve Wozniak ، كان الدافع وراء إصدار GPT-4 من شركة OpenAI في سان فرانسيسكو.
تقول الشركة إن أحدث طراز لها أقوى بكثير من الإصدار السابق ، والذي تم استخدامه لتشغيل ChatGPT ، وهو روبوت قادر على توليد أجزاء من النص من أقصر المطالبات.
جاء في الرسالة المفتوحة بعنوان “إيقاف تجارب الذكاء الاصطناعي العملاقة مؤقتًا”: “يمكن لأنظمة الذكاء الاصطناعي ذات الذكاء التنافسي البشري أن تشكل مخاطر عميقة على المجتمع والإنسانية”.
وقالت: “يجب تطوير أنظمة ذكاء اصطناعي قوية فقط بمجرد أن نكون واثقين من أن آثارها ستكون إيجابية وأن مخاطرها ستكون تحت السيطرة”.
كان ماسك مستثمرًا أوليًا في شركة OpenAI ، وقضى سنوات في مجلس إدارتها ، وتقوم شركته Tesla بتطوير أنظمة الذكاء الاصطناعي للمساعدة في تشغيل تكنولوجيا القيادة الذاتية ، من بين تطبيقات أخرى.
تم التوقيع على الرسالة ، التي استضافها معهد Future of Life الممول من Musk ، من قبل نقاد بارزين بالإضافة إلى منافسي OpenAI مثل رئيس Stability AI عماد مصطفى.
اقتبس الخطاب من مدونة كتبها مؤسس OpenAI Sam Altman ، الذي اقترح أنه “في مرحلة ما ، قد يكون من المهم الحصول على مراجعة مستقلة قبل البدء في تدريب الأنظمة المستقبلية”.
كتب مؤلفو الرسالة المفتوحة: “نحن متفقون. هذه النقطة هي الآن”.
“لذلك ، ندعو جميع مختبرات الذكاء الاصطناعي إلى التوقف فورًا لمدة 6 أشهر على الأقل عن تدريب أنظمة الذكاء الاصطناعي الأكثر قوة من GPT-4.”
ودعوا الحكومات إلى التدخل وفرض تجميد إذا فشلت الشركات في الاتفاق.
يجب استخدام الأشهر الستة لتطوير بروتوكولات السلامة وأنظمة حوكمة الذكاء الاصطناعي وإعادة تركيز البحث على ضمان أن تكون أنظمة الذكاء الاصطناعي أكثر دقة وأمانًا و “جديرة بالثقة والولاء”.
لم تُفصِّل الرسالة الأخطار التي كشفت عنها GPT-4.
لكن الباحثين ، بمن فيهم جاري ماركوس من جامعة نيويورك ، الذي وقع الرسالة ، جادلوا منذ فترة طويلة بأن روبوتات الدردشة كاذبة كبيرة ولديها القدرة على أن تكون منتشرة على نطاق واسع للمعلومات المضللة.
ومع ذلك ، قارن المؤلف كوري دوكتورو صناعة الذكاء الاصطناعي بمخطط “ضخ وتفريغ” ، بحجة أن كلاً من إمكانات أنظمة الذكاء الاصطناعي وتهديدها قد تم المبالغة فيها بشكل كبير.