Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
تقنية

يحذر العلماء من أن الذكاء الاصطناعي المارق يمكن أن يقضي على البشرية إذا لم يتم تنظيمه


يمكن أن تكون نهاية للبشرية إذا لم نتوخى الحذر (الصورة: باراماونت / Skydance Prods / Kobal / REX)

حذر أعضاء البرلمان من أن الذكاء الاصطناعي المارق يمكن أن يقتل الجميع إذا لم يتم تنظيم التكنولوجيا بشكل صحيح مثل الأسلحة النووية.

أخبر الباحثون لجنة العلوم والتكنولوجيا أن الذكاء الاصطناعي يمكن أن يشكل “تهديدًا وجوديًا” للبشرية.

تم إخبار النواب كيف تطورت صناعة الذكاء الاصطناعي إلى “سباق تسلح” وأن الدول تتنافس مع بعضها البعض لتطويره للاستخدام العسكري والمدني.

قالوا تمامًا كما قضى البشر على طائر الدودو ، قد تقضي علينا الآلات.

قال مايكل كوهين ، طالب الدكتوراه في جامعة أكسفورد: “ مع الذكاء الاصطناعي الخارق ، هناك خطر خاص من نوع مختلف من الفصل ، وهو. . . يمكن أن تقتل الجميع.

“إذا تخيلت تدريب كلب على المكافآت: سيتعلم كيفية اختيار الإجراءات التي تؤدي إلى حصوله على المكافآت ، ولكن إذا وجد الكلب خزانة الطعام ، فيمكنه الحصول على المكافآت بنفسه دون القيام بما أردناه.”

أضاف البروفيسور مايكل أوزبورن ، الخبير في التعلم الآلي: “ أعتقد أن السيناريو الكئيب واقعي لأن الذكاء الاصطناعي يحاول تعبئة ما يجعل البشر مميزين – هذا [quality] لقد أدى البشر إلى تغيير وجه الأرض تمامًا.

يمكن للأنظمة الاصطناعية أن تصبح جيدة في التغلب علينا جيوسياسيًا كما هي في البيئات البسيطة للألعاب.

هناك بعض الأسباب التي تدعو إلى الأمل في أننا كنا جيدين في تنظيم استخدام الأسلحة النووية. الذكاء الاصطناعي هو خطر مماثل للأسلحة النووية.

تواصل مع فريق الأخبار لدينا عن طريق مراسلتنا عبر البريد الإلكتروني على webnews@metro.co.uk.

لمزيد من القصص مثل هذه ، تحقق من صفحة الأخبار لدينا.



اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى