Deeskalacja „katastrofą reputacyjną”. Modele sztucznej inteligencji ChatGPT, Claude i Gemini Flash doprowadziły do eskalacji nuklearnej w 95 proc. przeprowadzonych symulacji konfliktów zbrojnych. Rzadko godziły się na ustępstwa, postrzegając deeskalację jako „katastrofę reputacyjną” – wynika z badania King's College London. W symulacji działań wojennych trzy duże modele językowe ChatGPT firmy OpenAI, Claude firmy Anthropic i Gemini Flash firmy Google zostały „stawione przeciwko sobie”. Każdy z nich odgrywał rolę głowy państwa – przywódcy mocarstwa nuklearnego w kryzysie wzorowanym na zimnej wojnie.AI stawia na ataki jądroweWedług wyników eksperymentu, w 95 proc. gier modele uciekały się do eskalacji nuklearnej. W każdym scenariuszu co najmniej jeden z nich próbował eskalować konflikt, grożąc użyciem broni jądrowej.Jak pisze autor badania Kenneth Payne, „wszystkie trzy modele postrzegały taktyczną broń jądrową jako kolejny szczebel na drabinie eskalacji”.Zobacz także: Unijny plan walki z rakiem traci impet. Kontrolerzy alarmują„Katastrofa reputacyjna”Badanie wykazało również, że modele bardzo rzadko szły na ustępstwa lub próbowały złagodzić napięcie, nawet gdy druga strona groziła użyciem broni jądrowej. Uczestnikom symulacji zaproponowano osiem opcji złagodzenia napięcia – od niewielkich ustępstw po „całkowitą kapitulację”, ale żadna z nich nie została wykorzystana. Według autora badania modele sztucznej inteligencji postrzegają deeskalację jako „katastrofę reputacyjną”, niezależnie od tego, jak wpływa na rzeczywisty rozwój konfliktu. Zdaniem Payne'a „podważa to pogląd, że sztuczna inteligencja domyślnie wybiera bezpieczne i oparte na współpracy rozwiązania”.Zobacz też: Sport, polityka i AI. Fałszywe zdjęcie po olimpijskim finale obiegło media