Treningom SI potrzebne są hamulce. Yoshua Bengio to jeden z najsłynniejszych badaczy sztucznej inteligencji na świecie. Jego zdaniem istnieją argumenty wskazujące, że obecny sposób trenowania sztucznej inteligencji „doprowadzi te systemy do zwrócenia się przeciwko ludziom”. Dodał jednak, że jeszcze nie jest za późno. Yoshua Bengio jest zdobywcą Nagrody Turinga, czyli odpowiednika Nobla w świecie informatyki. Na co dzień prowadzi badania w Kanadzie, na Uniwersytecie w Montrealu.W rozmowie z CNBC odniósł się do zagrożeń, jakie niesie za sobą rozwój systemów sztucznej inteligencji samych w sobie, jak i władzy, jaką takie narzędzia dają wybranym ludziom. Jego zdaniem wkrótce mogą mieć większość naszych zdolności poznawczych. Generalna sztuczna inteligencja to rodzaj systemu, którego celem jest dorównanie, a nawet przewyższenie ludzkiego intelektu. Sztuczna inteligencja - zagrożeniaJak zauważył Bengio, budowa i szkolenie systemu sztucznej inteligencji kosztuje miliardy dolarów. Co oznacza, że tylko garstka krajów i organizacji może je budować. To nie zagrożenie przyszłości, a obecne już teraz.Zobacz też: Sztuczna inteligencja zszokowała internautę. „Proszę, umrzyj”„Inteligencja to władza. Kto będzie tę władzę kontrolował” – mówił Yoshua Bengio. „Posiadanie systemów, które wiedzą więcej niż większość ludzi, może być niebezpieczne w niewłaściwych rękach i powodować większą niestabilność na poziomie geopolitycznym, na przykład, lub terroryzm” – dodał badacz.Jak wskazał, dojdzie do koncentracji władzy – ekonomicznej, co może mieć złe skutki dla rynków, politycznej, co może być fatalne dla demokracji i bezpieczeństwa. „Nie mamy sposobów”„Takie efekty są możliwe w ciągu dekad. Ale jeśli zdarzą się ciągu 5 lat, to nie jesteśmy gotowi. Nie mamy sposobów upewnienia się, że systemy sztucznej inteligencji nie zostaną użyte do skrzywdzenia ludzi albo same nie zwrócą się przeciwko nim. Nie wiemy, jak to zrobić” – dodał Yoshua Bengio.Jego zdaniem istnieją argumenty sugerujące, że obecny sposób trenowania sztucznej inteligencji doprowadzi te systemy do zwrócenia się przeciwko ludziom”. Wskazał, że istnieją ludzie, którzy chcieliby nadużyć tej władzy, a nawet tacy, którzy ucieszyliby się z zastąpienia ludzkości maszynami. Dlatego potrzebne są regulacje i mechanizmy zabezpieczające.Przeczytaj także: Miała pomóc, a zastępuje. Firmy zwalniają przez sztuczną inteligencjęWskazał, że jednymi z podstawowych regulacji powinny być zmuszenie przez rządy największych firm rozwijających SI do rejestracji swoich działań, a także obciążenie ich odpowiedzialnością za niepożądane efekty. Jego zdaniem pewną analogią do tej sytuacji może być wprowadzenie i rozwój tak przełomowych swego czasu rozwiązań jak samochody i samoloty. Tu dało się sprawy uregulować, by zapewnić użytkownikom i pasażerom maksymalne możliwe bezpieczeństwo. Pytania bez odpowiedziZauważył, że ten ewolucyjny rozwój zawiera w sobie pytania, na które bardzo ciężko znaleźć odpowiedź. „Jeśli stworzymy podmioty mądrzejsze od nas, mające własne cele, co to oznacza dla ludzkości? Jesteśmy w niebezpieczeństwie”? – mówił Yoshua Bengio.Dodał, że kluczowe jest zrozumienie przewag i zagrożeń, jakie niesie za sobą ta technologia. „Nie jest jeszcze za późno, by pokierować ewolucją społeczeństw i ludzkości w pozytywnym i korzystnym kierunku” – powiedział.