تم القبض على ChatGPT وهو يكذب مرة أخرى – هذه المرة في محكمة فعلية.
بدأ كل شيء عندما حاول أحد الركاب مقاضاة شركة الطيران Avianca ، مدعيا أن عربة معدنية اصطدمت بجروح في ركبته على متن رحلة إلى نيويورك. كجزء من الدفاع ، قدم محامو المسافر عدة أحكام ذات صلة في محاولة لإظهار سابقة قانونية وإقناع القاضي بعدم استبعاد القضية.
المشكلة؟ الأحكام لم تكن موجودة.
بعد أن طلب أحد المحامين تقديم بحث في حالات مماثلة ، أنتج ChatGPT عددًا من الاستشهادات الواقعية ، بما في ذلك المحاكم والقضاة وأرقام السجلات والتواريخ والاقتباسات.
حتى أن المحامي طلب من ChatGPT التأكيد ، ففي إحدى الحالات كتب “هل فارغيز قضية حقيقية؟” ، رد عليه روبوت المحادثة “نعم ، [it] هي حالة حقيقية “.
وتابع متسائلاً: “هل الحالات الأخرى التي قدمتها وهمية؟”
أجاب ChatGPT: “لا ، الحالات الأخرى التي قدمتها حقيقية ويمكن العثور عليها في قواعد بيانات قانونية حسنة السمعة.”
إلا أنهم لم يتمكنوا ، مما أدى إلى وقوع الفريق القانوني للراكب في مأزق كبير. وحدد القاضي بي كيفين كاستل ، الذي يشرف على القضية الأصلية ، جلسة استماع في الثامن من يونيو (حزيران) للنظر في فرض عقوبات محتملة.
يثير الحادث عددًا من الأسئلة – أولها لماذا لم يتحقق أي من الفريق القانوني من الاستشهادات بنفسه؟ من ناحية أخرى ، يجادل مؤيدو الذكاء الاصطناعي بأن نماذج اللغات الكبيرة (LLMs) مثل ChatGPT من OpenAI و Google Bard وغيرها ستعمل على تحسين الإنتاجية والإبداع من خلال تولي مثل هذه المهام الرتيبة.
من ناحية أخرى ، نظرًا لأن العمال يخشون على وظائفهم ، فإن حقيقة أن روبوتات المحادثة لا يمكن الوثوق بها بالكامل حتى الآن ولا تزال تتطلب إنسانًا للتحقق من عملهم يجب أن يُنظر إليها على أنها إيجابية.
هذا يقودنا إلى السؤال الأكبر ، وهو ، لماذا تكمن ChatGPT في المقام الأول؟
بادئ ذي بدء ، يجادل الكثيرون بأن وصفها كذبة أمر غير صحيح ، ويدفعنا أكثر نحو تجسيد التكنولوجيا. الكذب هو بيان خاطئ عن عمد ، وبالتالي يتطلب فهم النية.
تذكر أن ChatGPT لا يفهم أي شيء يقوله.
في المستوى الأساسي ، تعمل LLM من خلال تعلم الكلمات أو العبارات التي ستبدو معقولة عند اتباع بعضها البعض. إنها تعرف أن كلمة “كلب” من المرجح أن تتبعها كلمة “مشي” بدلاً من “antidisestablishmentarianism” ، و “تصفح” بكلمة “board” بدلاً من “3.1415926535”.
هذا كله جزء من معالجة اللغة الطبيعية التي تُبنى عليها وظائف مثل الإكمال التلقائي أو الاقتراح التلقائي ، حيث يتوقع النظام ما سيحدث على الأرجح بعد ذلك.
ليس هناك شك على الإطلاق في أن ChatGPT يتفوق في هذه الوظيفة – فقط اطلب منه أن يؤلف قصيدة بأسلوب WB Yeats للإثبات:
لذا دعونا نتوقف ، وفي هذا المشهد الهادئ ،
ابحث عن العزاء واللحظة الهادئة للغاية ،
من أجل خليج غالواي ، عند شروق الشمس ،
يدعونا للمشاركة في نعمة الطبيعة.
هذه فقط الآية الأخيرة ، والباقي كان مثيرًا للإعجاب بنفس القدر – وبالمثل بالنسبة لشكسبير وغيره من الكتاب المشهورين.
كما يسلط الضوء على المبدأ الأساسي الثاني وراء LLMs. كان ChatGPT قادرًا على إنشاء قصيدة واقعية للغاية على غرار Yeats لأنه تم تدريبها على جميع أعماله.
يتم تغذية LLM بكميات هائلة من البيانات. كميات مذهلة. مئات المليارات من الكلمات. بشكل أساسي ، الإنترنت بالكامل.
هذا يعني أن روبوتات المحادثة لديها القدرة على الإجابة على ملايين الأسئلة – أو إنشاء إجابات معقولة للآخرين إذا لم تكن المعلومات في متناول اليد.
هذا هو ما يستمر في جذب انتباه المستخدمين – لكن ChatGPT نفسها ستخبرك ، عند سؤالها ، أنه لا يمكن الوثوق بها بنسبة 100٪.
أجاب ChatGPT عندما سئل عن سبب تكوين الإجابات ، “بصفتي نموذجًا للغة AI ، لا أقوم باختلاق الإجابات عن قصد”.
ومع ذلك ، من المهم ملاحظة أنني أقوم بإنشاء استجابات بناءً على أنماط وأمثلة تعلمتها من كمية هائلة من البيانات النصية. في بعض الأحيان ، عندما أواجه استفسارات أو موضوعات تقع خارج بيانات التدريب الخاصة بي أو قطع المعرفة ، قد لا أتمكن من الوصول إلى أحدث المعلومات أو الحقائق الدقيقة. في مثل هذه الحالات ، قد أقدم إجابات تخمينية أو غير كاملة.
هدفي هو المساعدة وتقديم معلومات مفيدة ، لكن لا يزال بإمكاني ارتكاب الأخطاء. من الجيد دائمًا التحقق من المعلومات التي أقدمها من مصادر موثوقة.
مرة أخرى ، يبدو هذا مدركًا لذاته بشكل ملحوظ ، لكن لا تنخدع.
ومع ذلك ، فإنه يقدم تذكيرًا قيمًا بأن ChatGPT-4 ، الإصدار الأحدث من نموذج OpenAI الرائد ، توقف عن التعلم في سبتمبر 2021 ، ولم يتم تدريبه على أي بيانات جديدة منذ تلك النقطة. أثناء الإجابة على الأسئلة المتعلقة بتواريخ محددة – مثل من فاز ببطولة Super Bowl 2023 أو من هو وزير الداخلية في المملكة المتحدة – قد يسلط ChatGPT الضوء على فجوة المعرفة ، ولكن لن تؤدي جميع المطالبات إلى مثل هذا التذكير.
بالطبع ، إذا كانت قد اختلقت فائزًا في Super Bowl ، فمن المحتمل أن تكون العواقب ضئيلة ، وربما تبدو أحمق في اختبار الحانة. كان لهلاوس ChatGPT الأخرى تأثيرات أكبر بكثير على المتورطين ، مثل رئيس البلدية الأسترالي المتهم بالرشوة عندما كان مُبلغًا عن المخالفات في القضية ، أو أستاذ القانون الأمريكي المتهم بسوء السلوك الجنسي – وهو ادعاء “ مدعوم ” بمقال ملفق في واشنطن بوست .
ومما يثير القلق أيضًا التكرار المتفاوت الذي يهلوسه ChatGPT بلغات مختلفة ، مرة أخرى نتيجة لمجموعات البيانات التي يتم التدريب عليها. من المرجح أن تأتي الإجابات بلغة معينة من البيانات المكتوبة بالفعل بتلك اللغة ، بدلاً من البحث عن أفضل إجابة وترجمتها.
على سبيل المثال ، قد تشير الإجابات باللهجات الصينية إلى أن الاحتجاز الجماعي غير القانوني لمسلمي الأويغور في البلاد هو “جهد مهني وتعليمي” ، على غرار الخط الحكومي الرسمي.
قال توني فاضل ، مخترع iPod والشريك في إنشاء ايفون. ثم مع مرور الوقت يستخدمون هؤلاء كقاعدة للتعلم والنمو والتكيف مع المجتمع.
“مع أنظمة الذكاء الاصطناعي ، ما نفعله هو أن نمنحهم الإنترنت بالكامل ، ثم نقول” لا تفعل هذا ، لا تفعل ذلك “.
في حديثه في حفل إطلاق Starmus Earth ، وهو مهرجان العلوم والفنون الذي أسسه عازف الجيتار في Queen Brian May ، تابع فاضل: “ نحن بحاجة إلى إلقاء نظرة على مجموعات البيانات ، وجعلها أكثر قوة ، وفهم حقًا ما نقوم بتدريب هذه الذكاء الاصطناعي عليه ، ومن هو تدريبهم ، وكيف يتم استخدامها.
كما هو الحال مع جميع التقنيات ، تعد LLM حساسة للمستخدم. يمكن استخدامها بشكل جيد أو سيئ اعتمادًا على فهمها (على سبيل المثال على سوء الفهم ، راجع أستاذ الجامعة الذي سأل عما إذا كان ChatGPT قد كتب مهام طلابه) ، وفي المستقبل ، يمكن استخدامها على نطاق أوسع أفضل الإنسانية أو النية الخبيثة.
سيكون التنظيم هو المفتاح ، كما أضاف السيد فاضل ، ولكن من الصعب تحقيقه على نطاق عالمي.
حتى ذلك الحين ، سيتم ترك الأمر للأفراد لجعل روبوتات المحادثة تعمل لصالحهم.
وللقيام بذلك ، تذكر دائمًا:
يفحص. كل شئ.
المزيد: يطالب منشئو ChatGPT بتنظيم الذكاء الاصطناعي لمنعه من تدمير البشرية
أكثر من ذلك: كتب ChatGPT رواية بعنوان Death Of An Author – لكنها لا توضح أي شيء
احصل على أحدث الأخبار والقصص السعيدة والتحليلات وغير ذلك الكثير