الذكاء الاصطناعي يشعل جدلا.. أطراف متصارعة تصفه بـ”السلاح النووي”!
كشف ملف جديد أن شركتي “غوغل” و”OpenAI”، وهما شركتان أميركيتان في مجال الذكاء الاصطناعي، لديهما أفكار متعارضة حول كيفية تنظيم التكنولوجيا من قبل الحكومة.
قدمت “غوغل” يوم الاثنين تعليقاً رداً على طلب الإدارة الوطنية للاتصالات والمعلومات حول كيفية النظر في مساءلة الذكاء الاصطناعي في وقت تتقدم فيه التكنولوجيا بسرعة، حسبما ذكرت صحيفة “واشنطن بوست”. تعد “غوغل” واحدة من المطورين الرائدين للذكاء الاصطناعي التوليدي مع إطلاق روبوت الدردشة الخاص بها والمعروف باسم “Bard”، جنباً إلى جنب مع “OpenAI” المدعومة من “مايكروسوفت”، وصاحبة التطبيق الأشهر “ChatGPT”.
وبينما روّج الرئيس التنفيذي لشركة “OpenAI”، سام ألتمان، لفكرة وجود وكالة حكومية جديدة تركز على الذكاء الاصطناعي للتعامل مع تعقيداتها وترخيص التكنولوجيا، قالت “غوغل” في ملفها إنها تفضل “نهجاً متعدد الطبقات ومتعدد أصحاب المصلحة لحوكمة الذكاء الاصطناعي”.
وكتبت “غوغل”: “على المستوى الوطني، ندعم نهج وجود منصة للحوار – مع وكالة مركزية مثل المعهد الوطني للمعايير والتكنولوجيا (NIST) لإبلاغ المنظمين القطاعيين الذين يشرفون على تنفيذ الذكاء الاصطناعي – بدلاً من “إدارة الذكاء الاصطناعي”، وفقاً لما ذكرته في ملفها المقدم للإدارة الوطنية للاتصالات والمعلومات. إذ سيقدم الذكاء الاصطناعي قضايا فريدة في الخدمات المالية والرعاية الصحية وغيرها من الصناعات الخاضعة للتنظيم ومجالات القضايا التي ستستفيد من خبرة المنظمين ذوي الخبرة في تلك القطاعات – والتي تعمل بشكل أفضل من وكالة تنظيمية جديدة تصدر وتنفذ قواعد أولية ليست قابلة للتكيف مع السياقات المتنوعة التي يتم فيها نشر الذكاء الاصطناعي”.
وعبّر آخرون في مجال الذكاء الاصطناعي، بمن فيهم الباحثون، عن آراء مماثلة، قائلين إن التنظيم الحكومي للذكاء الاصطناعي قد يكون طريقة أفضل لحماية المجتمعات المهمشة – على الرغم من حجة شركة “OpenAI” بأن التكنولوجيا تتقدم بسرعة كبيرة جداً لمثل هذا النهج، وفقاً لما ذكرته شبكة “CNBC”، واطلعت عليه “العربية.نت”.
فيما غردت الأستاذة ومديرة مختبر اللغويات الحاسوبية بجامعة واشنطن، إميلي إم بندر، على موقع تويتر: “المشكلة التي أراها مع نموذج التنظيم” والذي يشبه إدارة الغذاء والدواء لكن للذكاء الاصطناعي “هي أنه يفترض أن الذكاء الاصطناعي بحاجة إلى التنظيم بشكل منفصل عن الأشياء الأخرى”. “أوافق تماماً على أنه لا ينبغي نشر ما يسمى بأنظمة “الذكاء الاصطناعي” بدون نوع من عملية الاعتماد أولاً. لكن يجب أن تعتمد هذه العملية على الغرض من النظام. … يجب أن تحافظ الهيئات التنظيمية الحالية على ولايتها القضائية”.
وهذا يتناقض مع تفضيل “OpenAI”، و”مايكروسوفت” لنموذج تنظيمي أكثر مركزية. حيث قال رئيس مايكروسوفت، براد سميث، إنه يدعم إنشاء وكالة حكومية جديدة لتنظيم الذكاء الاصطناعي، وقد أعرب مؤسسا OpenAI، جريج بروكمان وإيليا سوتسكفر، عن رؤيتهما لضرورة تنظيم الذكاء الاصطناعي بطرق مماثلة للطاقة النووية، في إطار هيئة تنظيمية عالمية للذكاء الاصطناعي شبيهة بـ “الوكالة الدولية للطاقة الذرية”.
وكتب المسؤولون التنفيذيون في “OpenAI”، في منشور مدونة أن “أي جهد يتجاوز حداً معيناً (أو موارد مثل الحوسبة) يجب أن يخضع لسلطة دولية يمكنها فحص الأنظمة، وطلب عمليات تدقيق، واختبار الامتثال لمعايير السلامة [و] قيود على درجات الانتشار ومستويات الأمن”.
وفي مقابلة مع صحيفة “واشنطن بوست”، قال رئيس الشؤون العالمية في “غوغل”، كينت ووكر، إنه “لا يعارض” فكرة وجود جهة تنظيمية جديدة للإشراف على ترخيص نماذج اللغات الكبيرة، لكنه قال إن الحكومة يجب أن تنظر “بشكل أكثر شمولية” إلى التكنولوجيا. وأضاف أن المعهد الوطني للمعايير والتكنولوجيا (NIST) في وضع جيد بالفعل لأخذ زمام المبادرة.
وتشير وجهات نظر “غوغل”، و”مايكروسوفت” التي تبدو متناقضة بشأن التنظيم إلى نقاش متزايد في مجال الذكاء الاصطناعي، وهو النقاش الذي يتجاوز إلى حد بعيد المدى الذي يجب أن تُنظم فيه التكنولوجيا وكيف ينبغي أن تعمل اللوجيستيات التنظيمية.