يُزعم أن شركة أوبن إيه آي ، الشركة التي تقف وراء ChatGPT ، روبوت الدردشة الذي يعمل بالذكاء الاصطناعي الذي أخذ الإنترنت عن طريق العاصفة ، استخدمت العمال الكينيين الذين يتقاضون أجوراً زهيدة لجعله آمناً.
حصل العمال الكينيون على أقل من دولارين في الساعة لتصفح كميات كبيرة من المحتوى الرسومي للمساعدة في بناء أداة تضع علامة على المحتوى المثير للمشاكل ، كما ورد في تحقيق الوقت.
ثم تم استخدام البيانات المصنفة من الصور والنصوص الحساسة لتدريب ChatGPT لمنعه من الاستجابة بإجابات إشكالية.
تم الاستعانة بمصادر خارجية لهذا العمل لشركة Sama ، وهي شركة مقرها سان فرانسيسكو توظف عمالًا في كينيا وأوغندا والهند لتصنيف البيانات لعملاء Silicon Valley مثل Google و Meta و Microsoft.
بموجب عقود سما ، تم تكليف العمال بتسمية النص الذي يصف الانتهاك الجنسي وخطاب الكراهية والعنف ، وفقًا لوثائق داخلية حصلت عليها مجلة تايم. لهذا ، كان يتقاضى الموظفون ما بين 1.32 دولار إلى 2 دولار في الساعة.
تمامًا مثل Facebook يستخدم الذكاء الاصطناعي المصمم باستخدام هذه الطريقة لاكتشاف اللغة السامة مثل خطاب الكراهية للمساعدة في إزالته من منصاتهم ، استخدمت OpenAI ذكاءً اصطناعيًا مع أمثلة مصنفة للعنف وخطاب الكراهية والاعتداء الجنسي ، لبناء أداة يمكنها تعلم الكشف خطاب مماثل في البرية.
سيتم بعد ذلك تضمين هذا في ChatGPT لتصفية المحتوى الإشكالي وكذلك المساعدة في تنظيف النص السام من مجموعات بيانات التدريب لنماذج الذكاء الاصطناعي المستقبلية.
منذ تشرين الثاني (نوفمبر) 2021 ، ورد أن شركة OpenAI أرسلت عشرات الآلاف من المقتطفات النصية إلى Sama التي وصفت مواقف مثل الاعتداء الجنسي على الأطفال ، والوحشية ، والقتل ، والانتحار ، والتعذيب ، وإيذاء النفس ، وسفاح القربى بالتفصيل.
في فبراير 2022 ، أنهت سما الشراكة بعد أن طلبت شركة OpenAI وتلقيت 1400 صورة لمحتوى يحتمل أن يكون غير قانوني يتضمن الاعتداء الجنسي على الأطفال ، والحيوانية ، والاغتصاب ، وأشكال أخرى من العنف لمشروع تدريب على الذكاء الاصطناعي لا علاقة له بـ ChatGPT ، وفقًا للوثائق الداخلية التي تمت مراجعتها. بالوقت.
قالت أوبن إيه آي لمجلة تايم: “مهمتنا هي ضمان أن يعود الذكاء الاصطناعي العام بالفائدة على البشرية جمعاء ، ونحن نعمل بجد لبناء أنظمة ذكاء اصطناعي آمنة ومفيدة تحد من التحيز والمحتوى الضار”.
تصنيف وتنقية الضار [text and images] خطوة ضرورية لتقليل كمية المحتوى العنيف والجنسي المتضمن في بيانات التدريب وإنشاء أدوات يمكنها اكتشاف المحتوى الضار ، “
وبحسب ما ورد تسبب العمل في معاناة شديدة لبعض واضعي البيانات ، حيث وصف أحد الموظفين عمله بأنه “تعذيب”.
شركة Sama ، التي تسوق نفسها على أنها شركة “ذكاء اصطناعي أخلاقي” ، تواجه مشكلة بالفعل بسبب معاملتها للعمال المنخرطين في تعديل المحتوى الضار لعمالقة التكنولوجيا مثل Facebook.
في العام الماضي ، تم تسمية سما في عريضة باسم شركة Meta المحلية للاستعانة بمصادر خارجية ، لإخضاع العمال الذين يديرون منشورات Facebook إلى رواتب غير منتظمة ، وعدم كفاية دعم الصحة العقلية ، وخرق النقابات ، وانتهاك خصوصيتهم وكرامتهم.
تواصلت Metro.co.uk مع OpenAI و Sama للتعليق.
أكثر من ذلك: يخدع ChatGPT العلماء بكتابة ملخصات أوراق بحثية دقيقة
المزيد: فيض من تطبيقات ChatGPT غير الرسمية تفرض رسومًا على الأشخاص لاستخدام أداة AI المجانية
احصل على أحدث الأخبار والقصص السعيدة والتحليلات وغير ذلك الكثير