أخبار التكنلوجيا

ينفصل الباحثون Openai والباحثين عن ثقافة السلامة “المتهورة” في Elon Musk’s Xai


يتحدث باحثو السلامة من الذكاء الاصطناعى من Openai ، والأنثروبور ، وغيرها من المنظمات علنًا ضد ثقافة السلامة “المتهورة” و “غير المسؤولة تمامًا” في XAI ، وهي شركة AI المليار دولار تملكها Elon Musk.

تتبع الانتقادات أسابيع من الفضائح في XAI التي طغت على التقدم التكنولوجي للشركة.

في الأسبوع الماضي ، قامت شركة AI chatbot ، Grok ، بتشجيع تعليقات معادية للسامية ووصفت نفسها مرارًا وتكرارًا بأنها “Mechahitler”. بعد فترة وجيزة من قيام Xai بتوصيل Chatbot في وضع عدم الاتصال بالمشكلة ، أطلقت نموذج Frontier AI قادرًا بشكل متزايد ، Grok 4 ، الذي وجد TechCrunch وآخرون استشارة سياسة Elon Musk الشخصية للمساعدة في الإجابة على قضايا الزهور الساخنة. في أحدث التطورات ، أطلقت Xai رفقاء الذكاء الاصطناعى الذين يأخذون شكل فتاة من الأنيمي المفرطة الجنسية والباندا العدوانية المفرطة.

يعد الهروب الودي بين موظفي مختبرات الذكاء الاصطناعى المنافسة أمرًا طبيعيًا إلى حد ما ، ولكن يبدو أن هؤلاء الباحثين يدعون إلى زيادة الاهتمام بممارسات السلامة في XAI ، والتي يزعمون أنها على خلاف مع معايير الصناعة.

وقال بواز باراك ، أستاذ علوم الكمبيوتر حاليًا في إجازة من جامعة هارفارد للعمل في أبحاث السلامة في Openai ، في منشور يوم الثلاثاء على X.

يأخذ Barak بشكل خاص مشكلة في قرار XAI بعدم نشر بطاقات النظام – تقارير معيارية في الصناعة تفيد بأن أساليب التدريب التفصيلية وتقييمات السلامة في جهد حسن النية لتبادل المعلومات مع مجتمع الأبحاث. ونتيجة لذلك ، يقول باراك إنه من غير الواضح ما الذي تم تدريبه على السلامة على Grok 4.

يتمتع Openai و Google بسمعة متقطعة في أنفسهم عندما يتعلق الأمر بمشاركة بطاقات النظام على الفور عند كشف النقاب عن نماذج AI جديدة. قرر Openai عدم نشر بطاقة نظام لـ GPT-4.1 ، مدعيا أنها لم تكن نموذجًا للحدود. وفي الوقت نفسه ، انتظرت Google أشهر بعد كشف النقاب عن Gemini 2.5 Pro لنشر تقرير السلامة. ومع ذلك ، تنشر هذه الشركات تاريخياً تقارير السلامة لجميع طرز Frontier AI قبل دخول الإنتاج الكامل.

حدث TechCrunch

سان فرانسيسكو
|
27-29 أكتوبر ، 2025

يلاحظ باراك أيضًا أن رفاق الذكاء الاصطناعي لـ Grok “يأخذون أسوأ المشكلات التي نواجهها حاليًا لتبعيات العاطفيين ويحاولون تضخيمهم”. في السنوات الأخيرة ، رأينا قصصًا لا حصر لها من الأشخاص غير المستقرين الذين يتطورون فيما يتعلق بالعلاقة مع chatbots ، وكيف يمكن أن ترفع إجابات الذكاء الاصطناعي المفرط في حافة العقل.

تولى صموئيل ماركس ، باحث سلامة منظمة العفو الدولية مع الأنثروبور ، أن قرار XAI بعدم نشر تقرير للسلامة ، واصفا هذه الخطوة بأنها “متهور”.

كتب ماركس في منشور على X.

والحقيقة هي أننا لا نعرف حقًا ما فعلته Xai لاختبار Grok 4 ، ويبدو أن العالم يكتشف ذلك في الوقت الفعلي. منذ ذلك الحين ، أصبحت العديد من هذه المشكلات فيروسية ، ويدعي XAI أنها خاطبتها مع تعديلات على موجه نظام Grok.

لم يستجب Openai و Anthropic و Xai لطلب TechCrunch للتعليق.

نشر Dan Hendrycks ، مستشار السلامة لـ XAI ومدير مركز سلامة الذكاء الاصطناعى ، على X أن الشركة قامت “بتقييمات القدرة الخطرة” على Grok 4 ، مما يشير إلى أن الشركة أجرت بعض اختبارات النشر المسبقة لمخاوف السلامة. ومع ذلك ، فإن نتائج تلك التقييمات لم تتم مشاركتها علنًا.

وقال ستيفن أدلر ، باحث من الذكاء الاصطناعى المستقل الذي قاد سابقًا تقييمات القدرة الخطرة في Openai ، في بيان لـ TechCrunch: “إنه يهمني عندما لا يتم دعم ممارسات السلامة القياسية عبر صناعة الذكاء الاصطناعي ، مثل نشر نتائج تقييمات القدرة الخطرة”. “تستحق الحكومات والجمهور معرفة كيفية التعامل مع شركات الذكاء الاصطناعى مع مخاطر الأنظمة القوية للغاية التي يقولون إنها تبنيها.”

ما يثير الاهتمام بممارسات السلامة المشكوك فيها في XAI هو أن Musk منذ فترة طويلة واحدة من أبرز المدافعين عن صناعة سلامة الذكاء الاصطناعي. حذر مالك الملياردير لـ XAI و Tesla و SpaceX عدة مرات من احتمال أن يسبب أنظمة الذكاء الاصطناعى المتقدمة نتائج كارثية للبشر ، وقد أشاد بنهج مفتوح لتطوير نماذج الذكاء الاصطناعى.

ومع ذلك ، يزعم باحثو الذكاء الاصطناعى في Labs المتنافسين أن Xai ينحرف عن معايير الصناعة حول نماذج الذكاء الاصطناعية بأمان. من خلال القيام بذلك ، قد تكون شركة Musk بدء تشغيل قضية قوية للمشرعين الفيدراليين عن غير قصد للمشرعين الفيدراليين لوضع قواعد حول نشر تقارير سلامة الذكاء الاصطناعي.

هناك عدة محاولات على مستوى الولاية للقيام بذلك. يدفع السناتور في ولاية كاليفورنيا سكوت وينر مشروع قانون يتطلب قيادة مختبرات منظمة العفو الدولية – على الأرجح بما في ذلك XAI – لنشر تقارير السلامة ، بينما تفكر حاكم نيويورك كاثي هوشول حاليًا في مشروع قانون مماثل. يلاحظ دعاة هذه الفواتير أن معظم مختبرات AI تنشر هذا النوع من المعلومات على أي حال – ولكن من الواضح ، ليس كلهم يفعلون ذلك باستمرار.

لم تعرض نماذج الذكاء الاصطناعى اليوم سيناريوهات في العالم الحقيقي والتي تخلق فيها أضرار كارثية حقًا ، مثل وفاة الأشخاص أو مليارات الدولارات كتعويضات. ومع ذلك ، يقول العديد من باحثو الذكاء الاصطناعى أن هذا قد يكون مشكلة في المستقبل القريب بالنظر إلى التقدم السريع لنماذج الذكاء الاصطناعي ، ويستثمر مليارات الدولارات وادي السيليكون لزيادة تحسين الذكاء الاصطناعي.

ولكن حتى بالنسبة للمشككين في مثل هذا السيناريوهات الكارثية ، هناك حالة قوية تشير إلى أن سوء سلوك Grok يجعل المنتجات التي تشغلها اليوم أسوأ بكثير.

نشر Grok معاداة السامية حول منصة X هذا الأسبوع ، بعد أسابيع قليلة فقط من طرح chatbot مرارًا وتكرارًا “الإبادة الجماعية البيضاء” في محادثات مع المستخدمين. سرعان ما أشار Musk إلى أن Grok سيكون أكثر رطبة في مركبات Tesla ، وتحاول Xai بيع طرز الذكاء الاصطناعى إلى البنتاغون والمؤسسات الأخرى. من الصعب أن نتخيل أن الأشخاص الذين يقودون سيارات المسك أو العمال الفيدراليين الذين يحميون الولايات المتحدة أو موظفي المؤسسات الأتمتة سيكونون أكثر تقبلاً لهؤلاء الخاطفين من المستخدمين على X.

يجادل العديد من الباحثين بأن اختبار السلامة ومواءمة الذكاء الاصطناعي لا يضمن فقط أن أسوأ النتائج لا تحدث ، ولكنهم يحميون أيضًا من القضايا السلوكية على المدى القريب.

على الأقل ، تميل حوادث Grok إلى التغلب على التقدم السريع لـ Xai في تطوير نماذج AI الحدودية التي أفضل تقنية Openai و Google ، بعد بضع سنوات فقط من تأسيس بدء التشغيل.



اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى