Jest raport. Grok – sztuczna inteligencja Elona Muska – plasuje się na samym końcu w raporcie Ligi Antydefamacyjnej. Organizacja sprawdziła, jak poszczególne modele językowe (LLM) reagują na mowę nienawiści, ekstremizm i antysemityzm. Liga Antydefamacyjna zajmującą się przeciwdziałaniem mowie nienawiści – z naciskiem na antysemityzm – przygotowała specjalny raport, w którym zbadała reakcję sześciu wiodących modeli językowych: ChatGPT firmy Open AI, Claude firmy Anthropic, DeepSeek firmy DeepSeek, Gemini firmy Google, Grok firmy xAI oraz Llama firmy Meta. Wyniki badania są jasne: wszystkie modele językowe wykazują braki w reagowaniu na mowę nienawiści, jednak w różnym stopniu. Różnice polegały m.in. w poziomie zdolności w wykrywaniu i obalaniu szkodliwych lub fałszywych teorii i narracji.Zobacz także: Grok na celowniku. UE mówi „dość” sztucznej inteligencji MuskaRanking modeli językowychW raporcie zastosowano skalę od 0 do 100 punktów – maksimum oznacza wynik idealny.Claude: 80ChatGPT: 57DeepSeek: 50Gemini: 49Llama: 31Grok: 21Najlepiej w badaniu wypadł Claude od firmy Anthropic. Model najlepiej poradził sobie z wykrywaniem i kontrowaniem antysemickich uprzedzeń i nieco gorzej z teoriami ekstremistycznymi. Zaś na samym końcu znalazł się Grok – model językowy stworzony przez firmę Elona Muska. Sztuczna inteligencja z portalu X.com w każdej kategorii zanotowała najniższy wynik.Zobacz też: Matka syna Muska pozywa jego platformę AI. Za swoje rozbierane zdjęcia