تستخدم شركة غوغل نموذج الذكاء الاصطناعي “Claude” من شركة “Anthropic” في تحسين وتطوير نموذجها الخاص “Gemini AI”.
ويقوم المتعاقدون الذين يعملون على تحسين أداء “Gemini” بمقارنة استجاباته مع تلك التي يقدمها “Claude”، مما يثير تساؤلات حول ما إذا كانت غوغل قد حصلت على إذن لاستخدام “Claude” في هذه التجارب.
وبحسب تقرير موقع “TechCrunch” المتخصص في أخبار التكنولوجيا، لا يبدو أن غوغل قد حصلت على الموافقة الرسمية من “Anthropic”، وهي مستثمر رئيسي في الأخيرة، لاستخدام نموذج “Claude” لهذا الغرض.
حيث أن الشروط التجارية لشركة “Anthropic” تمنع عملائها من استخدام “Claude” لتطوير منتجات أو خدمات منافسة، أو حتى تدريب نماذج ذكاء اصطناعي منافسة دون موافقتها المسبقة.
وفي ظل التنافس الشديد بين شركات التكنولوجيا لتطوير نماذج ذكاء اصطناعي متفوقة، أصبح من الشائع تقييم أداء هذه النماذج مقارنة بمنافسيها.
لكن بدلاً من إجراء الاختبارات العادية وفقاً للمعايير المعتمدة في الصناعة، يبدو أن المتعاقدين الذين يعملون على تطوير “Gemini” يتم تكليفهم بتقييم إجابات نماذج الذكاء الاصطناعي بشكل دقيق، مما يثير مزيداً من التساؤلات حول هذا النهج.
وكشفت المراسلات الداخلية التي اطلع عليها “TechCrunch” أن المتعاقدين المكلفين بتقييم “Gemini” يقيّمون دقة إجابات النموذج وفقًا لمعايير متعددة، مثل الصدق. كما يُطلب منهم تحديد الإجابة الأفضل على السؤال المطروح في غضون 30 دقيقة، واختيار ما إذا كانت الإجابة من “Gemini” أم “Claude”.
ويبدو أن المتعاقدين قد لاحظوا مؤخراً ظهور إشارة إلى “Claude” في المنصة الداخلية لغوغل، التي يستخدمونها للمقارنة بين “Gemini” ونماذج أخرى غير مسماة. كما أشاروا إلى أن استجابات “Claude” تتمتع بمستوى أعلى من السلامة مقارنة بـ “Gemini”.
ففي بعض الحالات، تجاهل “Claude” طلبات اعتبرها غير آمنة، بينما كانت استجابة “Gemini” قد تم تصنيفها على أنها “انتهاك كبير للسلامة”.