كذكاء اصطناعي (منظمة العفو الدولية) في التقدم بسرعة فائقة ، يشعر الخبراء بالقلق من أنه قد يتجاوز اللوائح للسيطرة عليه.
قال مات كليفورد ، مستشار ريشي سوناك للتكنولوجيا ، إنه ما لم يتم تنظيم منتجي الذكاء الاصطناعي على نطاق عالمي ، فقد تكون هناك أنظمة “قوية جدًا” يمكن للبشر أن يكافحوا من أجل السيطرة عليها.
وقال لـ TalkTV ، إنه حتى المخاطر قصيرة المدى كانت “ مخيفة جدًا ” ، حيث تمتلك الذكاء الاصطناعي القدرة على صنع أسلحة إلكترونية وبيولوجية يمكن أن تؤدي إلى العديد من الوفيات.
تأتي التعليقات بعد أ رسالة مدعومة من عشرات الخبراء ، بمن فيهم رواد الذكاء الاصطناعي ، نُشرت الأسبوع الماضي تحذر من أن مخاطر التكنولوجيا يجب أن تعالج بنفس درجة إلحاح الأوبئة أو الحرب النووية.
وقع الرؤساء الكبار في شركات مثل Google DeepMind و Anthropic الرسالة جنبًا إلى جنب مع ما يسمى بـ “الأب الروحي للذكاء الاصطناعي” ، جيفري هينتون.
استقال هينتون مؤخرًا من Google وأثار تحذيرات بشأن مخاطر الذكاء الاصطناعي ، قائلاً إن جزءًا منه يأسف الآن على عمله في حياته.
يقدم كليفورد المشورة لرئيس الوزراء بشأن تطوير فريق العمل التأسيسي لحكومة المملكة المتحدة ، والذي يبحث في نماذج لغة الذكاء الاصطناعي مثل ChatGPT و Google Bard ، وهو أيضًا رئيس وكالة الأبحاث المتقدمة والاختراع (Aria).
قال لـ TalkTV: “ أعتقد أن هناك الكثير من أنواع المخاطر المختلفة مع الذكاء الاصطناعي ، وغالبًا ما نتحدث في الصناعة عن المخاطر قصيرة المدى وطويلة الأجل ، والمخاطر على المدى القريب مخيفة جدًا في الواقع.
يمكنك استخدام الذكاء الاصطناعي اليوم لإنشاء وصفات جديدة للأسلحة البيولوجية أو لشن هجمات إلكترونية على نطاق واسع. هذه أشياء سيئة.
“نوع الخطر الوجودي الذي أعتقد أن كتاب الرسائل يتحدثون عنه هو … حول ما يحدث بمجرد أن نخلق بشكل فعال نوعًا جديدًا ، ذكاء أكبر من البشر.”
وبينما أقر بأن الجدول الزمني الذي يستغرق عامين لأجهزة الكمبيوتر لتجاوز الذكاء البشري كان في “النهاية الصاعدة للطيف” ، قال كليفورد إن أنظمة الذكاء الاصطناعي أصبحت “أكثر وأكثر قدرة بمعدل متزايد باستمرار”.
ولدى سؤاله في برنامج الإصدار الأول يوم الاثنين عن النسبة المئوية التي يمنحها لإمكانية القضاء على البشرية بواسطة الذكاء الاصطناعي ، قال كليفورد: “أعتقد أنه ليس صفرًا”.
وتابع: “ إذا عدنا إلى أشياء مثل الأسلحة البيولوجية أو الهجمات الإلكترونية (الهجمات) ، يمكن أن يكون لديك بالفعل تهديدات خطيرة جدًا للبشر يمكن أن تقتل العديد من البشر – وليس كل البشر – ببساطة من حيث نتوقع أن تكون النماذج في قسمين سنوات من الزمن.
“أعتقد أن الشيء الذي يجب التركيز عليه الآن هو كيف نتأكد من أننا نعرف كيفية التحكم في هذه النماذج لأننا لا نفعل ذلك الآن.”
قال الخبير التكنولوجي إن إنتاج الذكاء الاصطناعي يحتاج إلى تنظيم على نطاق عالمي وليس فقط من قبل الحكومات الوطنية.
انتشرت تطبيقات الذكاء الاصطناعي على الإنترنت ، حيث نشر المستخدمون صورًا مزيفة للمشاهير والسياسيين ، والطلاب يستخدمون ChatGPT ونماذج تعلم اللغة الأخرى لإنشاء مقالات على مستوى الجامعة.
ولكن يمكن للذكاء الاصطناعي أيضًا أداء مهام منقذة للحياة ، مثل تحليل الصور الطبية مثل الأشعة السينية والمسح الضوئي والموجات فوق الصوتية ، ومساعدة الأطباء على تحديد وتشخيص أمراض مثل السرطان وأمراض القلب بشكل أكثر دقة وسرعة.
قال كليفورد إن الذكاء الاصطناعي ، إذا تم تسخيره بالطريقة الصحيحة ، يمكن أن يكون قوة من أجل الخير.
وقال: “يمكنك أن تتخيل الذكاء الاصطناعي يعالج الأمراض ، مما يجعل الاقتصاد أكثر إنتاجية ، ويساعدنا في الوصول إلى اقتصاد محايد للكربون”.
يوم الثلاثاء ، كتب كليفورد على تويتر أن هناك “الكثير من الفروق الدقيقة” فيما قاله.
قال ، مضيفًا نصًا أطول من المقابلة /
يطالب حزب العمل الوزراء بمنع مطوري التكنولوجيا من العمل على أدوات الذكاء الاصطناعي المتقدمة ما لم يتم منحهم ترخيصًا.
قالت وزيرة الظل الرقمية لوسي باول ، التي من المقرر أن تتحدث في مؤتمر TechUK يوم الثلاثاء ، لصحيفة The Guardian إنه يجب ترخيص الذكاء الاصطناعي بطريقة مماثلة للأدوية أو الطاقة النووية.
قالت: “هذا هو نوع النموذج الذي يجب أن نفكر فيه ، حيث يجب أن يكون لديك ترخيص لبناء هذه النماذج”.
في مايو ، أجرى Sunak محادثات مع رؤساء شركات الذكاء الاصطناعي مثل ChatGPT Creator و OpenAI و Anthropic و DeepMind من Google. يناقشون مستقبل الذكاء الاصطناعي والتهديدات التي يشكلها.
أكثر من ذلك: يحذر الخبراء من أن الذكاء الاصطناعي يشكل “خطر الانقراض”
أكثر من ذلك: الذكاء الاصطناعي يطير الآن بطائرات مقاتلة تكتيكية بمفرده
احصل على أحدث الأخبار والقصص السعيدة والتحليلات وغير ذلك الكثير