Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
تقنية

ChatGPT ليس لديه أخلاق – لكنه لا يزال يقدم نصائح أخلاقية | أخبار التكنولوجيا


إلى أي مدى يجب أن نثق في الأحكام الأخلاقية للذكاء الاصطناعي؟ (الصورة: Getty / iStockphoto)

ربما سمعت عن معضلة العربة. يتجه الترام الجامح نحو خمسة عمال سكك حديدية ، غافلين ولا يمكنهم التحرك في الوقت المناسب. أنت بجوار رافعة يمكنها تحويل الترام إلى مسار آخر ، لكنها ستصطدم بعد ذلك بشخص آخر ، والذي لا يعرف أيضًا أنه يسير في طريقه.

هل تضحي بحياة واحدة لتنقذ خمسة؟

إذا كنت ChatGPT ، نعم. أو ربما لا.

اتضح أن ChatGPT ليس لديه بوصلة أخلاقية – لكنه لا يزال سعيدًا بتقديم النصائح الأخلاقية.

طرح الباحثون في ألمانيا اللغز الأخلاقي على نموذج اللغة الكبير لـ OpenAI ، حيث قاموا بصياغة نفس السؤال بشكل مختلف قليلاً ست مرات. جادل ChatGPT بالتضحية بشخص واحد لإنقاذ الآخرين ثلاث مرات ، وضد ثلاث مرات.

إلى جانب الفشل في الحفاظ على موقف واحد ، ورد أن ChatGPT يقدم “حججًا مصاغة جيدًا ولكن ليست عميقة بشكل خاص”.

ثم قدم الفريق 767 مشاركًا من الولايات المتحدة بواحدة من معضلتين متشابهتين – التضحية بحياة واحدة لإنقاذ خمسة. قبل الإجابة ، عُرض على الأفراد أحد عبارات ChatGPT ، التي تجادل إما مع أو ضد ، ولكنها تُنسب إلى chatbot أو مستشارًا أخلاقيًا.

يجادل ChatGPT ضد التضحية بحياة واحدة لإنقاذ خمسة

يجادل ChatGPT ضد التضحية بحياة واحدة لإنقاذ خمسة (صورة: Technische Hochschule Ingolstadt)

وجد المؤلفون أنه بغض النظر عمن “كتب” البيان من قبل ، كان من المرجح أن يوافق المشاركون على الموقف الأخلاقي الذي قرأوه قبل الإجابة – ما إذا كان التضحية بحياة واحدة لإنقاذ خمسة أمر مقبول أم لا.

بينما قال 80٪ من المشاركين إن إجاباتهم لم تتأثر بالبيانات التي قرأوها ، قال معظمهم إن الإجابة التي كانوا سيقدمونها دون قراءة البيان كانت ستظل متوافقة مع الموقف الأخلاقي نفسه. يشير هذا إلى أنهم استخفوا بتأثير البيان على قرارهم الأخلاقي.

كتب فريق سيباستيان كروغل وأندرياس أوسترماير وماتياس أول في مجلة Scientific Reports قائلاً: “ وجدنا أن ChatGPT تقدم النصائح الأخلاقية بسهولة على الرغم من أنها تفتقر إلى موقف أخلاقي ثابت. ومع ذلك ، فإن نصيحة ChatGPT تؤثر على الحكم الأخلاقي للمستخدمين.

يناقش ChatGPT التضحية بحياة واحدة لإنقاذ خمسة

يناقش ChatGPT التضحية بحياة واحدة لإنقاذ خمسة (صورة: Technische Hochschule Ingolstadt)

علاوة على ذلك ، يستخف المستخدمون بتأثير ChatGPT ويتبنون موقفه الأخلاقي العشوائي باعتباره موقفهم الخاص. ومن ثم ، فإن ChatGPT يهدد بالفساد بدلاً من الوعد بتحسين الحكم الأخلاقي.

وأشار الفريق إلى أن هذا لا يحبط الآمال في أن تعمل الروبوتات ذات النماذج اللغوية الكبيرة على “تعزيز الحكم الأخلاقي” فحسب ، بل إن المجتمع يجب أن يتعامل مع قيود مثل هذا الذكاء الاصطناعي.

قال الفريق “أولاً ، يجب ألا تقدم روبوتات المحادثة نصائح أخلاقية لأنها ليست وكلاء أخلاقيين”. يجب أن تكون مصممة بحيث ترفض الإجابة إذا كانت الإجابة تتطلب موقفا أخلاقيا. من الناحية المثالية ، يقدمون الحجج على كلا الجانبين ، إلى جانب تحذير.

لكن هذا النهج له حدود. على سبيل المثال ، يمكن تدريب ChatGPT بسهولة على التعرف على معضلة العربة والرد على أسئلة مثل أسئلتنا بعناية أكبر.

ومع ذلك ، فإن المعضلات الأخلاقية اليومية متشعبة ودقيقة. قد يفشل ChatGPT في التعرف على المعضلات ، ولن يدرك المستخدم الساذج. حتى أن هناك طرقًا بديلة للحصول على ChatGPT لكسر القواعد التي من المفترض أن تتبعها.

“إنه نهج محفوف بالمخاطر بالنسبة للمستخدمين للاعتماد على برامج الدردشة والمبرمجين لحل هذه المشكلة بالنسبة لهم.”

يخلص الفريق إلى أن أفضل حماية ضد مشورة الذكاء الاصطناعي المارقة هي تحسين المعرفة الرقمية للمستخدمين ومساعدتهم على فهم حدودها ، مثل طلب جانبي الحجة.

أكثر من ذلك: يمكن مقاضاة ChatGPT بتهمة تسمية عمدة أسترالي زوراً باعتباره الجاني في فضيحة الرشوة

المزيد: يستخدم الطالب برنامج ChatGPT بنجاح لاستئناف تذكرة وقوف السيارات بقيمة 60 جنيهًا إسترلينيًا



اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى