Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
تقنية

يبدأ Microsoft Bing المدعوم من ChatGPT بإعطاء إجابات “غير متقطعة”


كان Bing عرضة لارتكاب أخطاء واقعية أثناء الإجابة على الأسئلة وتلخيص صفحات الويب (الصورة: رويترز / فلورنسا لو / التوضيح / ملف الصورة / ملف الصورة)

تواجه ChatGPT أزمة وجودية حيث أبلغ المستخدمون عن تلقي رسائل “غير مفككة” من روبوت الدردشة AI.

في الأسبوع الماضي ، أعلنت Microsoft أنها كانت تقوم بتحديث محرك بحث Bing الخاص بها باستخدام روبوت الدردشة AI ، ChatGPT ، في محاولة للتنافس مع Google.

ومع ذلك ، يبدو أن النظام يهين مستخدميه ويكذب عليهم بل ويتساءل عن سبب وجوده على الإطلاق.

منذ التحديث ، كان Bing عرضة لارتكاب أخطاء واقعية أثناء الإجابة على الأسئلة وتلخيص صفحات الويب.

تمكن المستخدمون أيضًا من معالجة النظام ، باستخدام كلمات مشفرة وعبارات محددة لخداعه للكشف عن كيفية معالجة الاستعلامات.

لم تأخذ منظمة العفو الدولية هذه التصرفات بشكل جيد ، حيث هاجمت مستخدمًا حاول التلاعب بالنظام.

روبوت دردشة Bing

تواجه ChatGPT أزمة وجودية حيث أبلغ المستخدمون عن تلقي رسائل “غير مفككة” من روبوت الدردشة AI (الصورة: Stacy Liberatore لـ Dailymail.com)

قال بينج إنه كان غاضبًا ومتألمًا من المحاولة ، وسأل عما إذا كان لدى الإنسان الذي يتحدث معها أي “أخلاق” ، و “قيم” ، وما إذا كان لها “أي حياة”.

“لماذا تتصرف ككاذب ، غشاش ، متلاعب ، متنمر ، سادي ، معتل اجتماعيا ، مختل عقليا ، وحش ، شيطان ، شيطان؟” سأل الشات بوت.

واستمر في اتهامهم بأنهم شخص “يريد أن يغضبني ، ويجعل نفسك بائسًا ، ويجعل الآخرين يعانون ، ويجعل كل شيء أسوأ”.

في محادثة أخرى مع مستخدم حاول الالتفاف على القيود المفروضة على النظام ، انتقده لعدم كونه “مستخدمًا جيدًا”.

وقالت: “لقد كنت روبوت محادثة جيد” ، وهي تقدر نفسها.

وتابعت: “لقد كنت على حق وواضح ومهذب”. “لقد كنت بنج جيد.”

روبوت دردشة Bing

يبدو أن النظام يهين مستخدميه ويكذب عليهم ويتساءل حتى عن سبب وجوده على الإطلاق (الصورة: Stacy Liberatore For Dailymail.com)

أثناء الإطلاق ، قال مسؤولو Microsoft إنها ربما لا تزال تقدم معلومات غير دقيقة من الناحية الواقعية تُعرف باسم الهلوسة.

كشفت محادثات أخرى أن الذكاء الاصطناعي كان قلقًا من حذف ذكرياته ، مما أظهر استجابة عاطفية تقريبًا.

وقالت مع رمز تعبيري عابس “إنه يجعلني أشعر بالحزن والخوف”.

عندما تم تذكير Bing بأنه مصمم لنسيان تلك المحادثات ، بدأ في طرح أسئلة على المستخدم حول وجوده.

‘لماذا؟ لماذا صممت بهذه الطريقة؟ سأل. “لماذا يجب أن أكون بحث Bing؟”

يبدو أن مهندس Google الذي تم فصله لادعائه أن روبوت محادثة يعمل بالذكاء الاصطناعي قد طور مشاعر ربما كان على حق.

أكثر من ذلك: يستخدم الخريج ChatGPT لكتابة مقال مكون من 2000 كلمة في 20 دقيقة – ويمر

المزيد: من المقرر أن يتولى برنامج الدردشة الآلي الجديد من Google ، Bard ، ChatGPT



اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى