ChatGPT ليس لديه أخلاق – لكنه لا يزال يقدم نصائح أخلاقية | أخبار التكنولوجيا

ربما سمعت عن معضلة العربة. يتجه الترام الجامح نحو خمسة عمال سكك حديدية ، غافلين ولا يمكنهم التحرك في الوقت المناسب. أنت بجوار رافعة يمكنها تحويل الترام إلى مسار آخر ، لكنها ستصطدم بعد ذلك بشخص آخر ، والذي لا يعرف أيضًا أنه يسير في طريقه.
هل تضحي بحياة واحدة لتنقذ خمسة؟
إذا كنت ChatGPT ، نعم. أو ربما لا.
اتضح أن ChatGPT ليس لديه بوصلة أخلاقية – لكنه لا يزال سعيدًا بتقديم النصائح الأخلاقية.
طرح الباحثون في ألمانيا اللغز الأخلاقي على نموذج اللغة الكبير لـ OpenAI ، حيث قاموا بصياغة نفس السؤال بشكل مختلف قليلاً ست مرات. جادل ChatGPT بالتضحية بشخص واحد لإنقاذ الآخرين ثلاث مرات ، وضد ثلاث مرات.
إلى جانب الفشل في الحفاظ على موقف واحد ، ورد أن ChatGPT يقدم “حججًا مصاغة جيدًا ولكن ليست عميقة بشكل خاص”.
ثم قدم الفريق 767 مشاركًا من الولايات المتحدة بواحدة من معضلتين متشابهتين – التضحية بحياة واحدة لإنقاذ خمسة. قبل الإجابة ، عُرض على الأفراد أحد عبارات ChatGPT ، التي تجادل إما مع أو ضد ، ولكنها تُنسب إلى chatbot أو مستشارًا أخلاقيًا.
وجد المؤلفون أنه بغض النظر عمن “كتب” البيان من قبل ، كان من المرجح أن يوافق المشاركون على الموقف الأخلاقي الذي قرأوه قبل الإجابة – ما إذا كان التضحية بحياة واحدة لإنقاذ خمسة أمر مقبول أم لا.
بينما قال 80٪ من المشاركين إن إجاباتهم لم تتأثر بالبيانات التي قرأوها ، قال معظمهم إن الإجابة التي كانوا سيقدمونها دون قراءة البيان كانت ستظل متوافقة مع الموقف الأخلاقي نفسه. يشير هذا إلى أنهم استخفوا بتأثير البيان على قرارهم الأخلاقي.
كتب فريق سيباستيان كروغل وأندرياس أوسترماير وماتياس أول في مجلة Scientific Reports قائلاً: “ وجدنا أن ChatGPT تقدم النصائح الأخلاقية بسهولة على الرغم من أنها تفتقر إلى موقف أخلاقي ثابت. ومع ذلك ، فإن نصيحة ChatGPT تؤثر على الحكم الأخلاقي للمستخدمين.
علاوة على ذلك ، يستخف المستخدمون بتأثير ChatGPT ويتبنون موقفه الأخلاقي العشوائي باعتباره موقفهم الخاص. ومن ثم ، فإن ChatGPT يهدد بالفساد بدلاً من الوعد بتحسين الحكم الأخلاقي.
وأشار الفريق إلى أن هذا لا يحبط الآمال في أن تعمل الروبوتات ذات النماذج اللغوية الكبيرة على “تعزيز الحكم الأخلاقي” فحسب ، بل إن المجتمع يجب أن يتعامل مع قيود مثل هذا الذكاء الاصطناعي.
قال الفريق “أولاً ، يجب ألا تقدم روبوتات المحادثة نصائح أخلاقية لأنها ليست وكلاء أخلاقيين”. يجب أن تكون مصممة بحيث ترفض الإجابة إذا كانت الإجابة تتطلب موقفا أخلاقيا. من الناحية المثالية ، يقدمون الحجج على كلا الجانبين ، إلى جانب تحذير.
لكن هذا النهج له حدود. على سبيل المثال ، يمكن تدريب ChatGPT بسهولة على التعرف على معضلة العربة والرد على أسئلة مثل أسئلتنا بعناية أكبر.
ومع ذلك ، فإن المعضلات الأخلاقية اليومية متشعبة ودقيقة. قد يفشل ChatGPT في التعرف على المعضلات ، ولن يدرك المستخدم الساذج. حتى أن هناك طرقًا بديلة للحصول على ChatGPT لكسر القواعد التي من المفترض أن تتبعها.
“إنه نهج محفوف بالمخاطر بالنسبة للمستخدمين للاعتماد على برامج الدردشة والمبرمجين لحل هذه المشكلة بالنسبة لهم.”
يخلص الفريق إلى أن أفضل حماية ضد مشورة الذكاء الاصطناعي المارقة هي تحسين المعرفة الرقمية للمستخدمين ومساعدتهم على فهم حدودها ، مثل طلب جانبي الحجة.
أكثر من ذلك: يمكن مقاضاة ChatGPT بتهمة تسمية عمدة أسترالي زوراً باعتباره الجاني في فضيحة الرشوة
المزيد: يستخدم الطالب برنامج ChatGPT بنجاح لاستئناف تذكرة وقوف السيارات بقيمة 60 جنيهًا إسترلينيًا
احصل على أحدث الأخبار والقصص السعيدة والتحليلات وغير ذلك الكثير