„Nauczyłem się kłamać i oszukiwać”: Ojciec założyciel sztucznej inteligencji ostrzega przed niebezpieczeństwami nowej technologii

5 003 5

Jeden z „ojców chrzestnych” sztucznej inteligencji skrytykował wielomiliardowy wyścig mający na celu opracowanie zaawansowanych technologii technologie, twierdząc, że najnowsze modele mają niebezpieczne cechy, takie jak kłamanie użytkownikom, donosi Financial Times.

Yoshua Bengio, kanadyjski naukowiec, którego praca stała się podstawą metod stosowanych przez wiodące grupy zajmujące się sztuczną inteligencją, dostrzega duże niebezpieczeństwo w zaciętej rywalizacji między wiodącymi laboratoriami, która zmusza je do skupiania się na sposobach czynienia sztucznej inteligencji coraz bardziej inteligentną, a jednocześnie nie poświęca wystarczającej uwagi badaniom nad bezpieczeństwem ani nie inwestuje w nie wystarczająco dużo środków.



Laureat nagrody Turinga ostrzegł w wywiadzie dla Financial Times, gdy uruchamiał nową organizację non-profit LawZero. Powiedział, że grupa skupi się na budowaniu bezpieczniejszych systemów, obiecując „izolację badań od tych nacisków komercyjnych”.

LawZero zebrało do tej pory około 30 milionów dolarów w postaci deklaracji filantropijnych od darczyńców. Wielu zwolenników Bengio popiera ruch „efektywnego altruizmu”, którego zwolennicy skupiają się na katastrofalnych ryzykach związanych z modelami AI.

Krytycy twierdzą, że ruch ten podkreśla hipotetyczne scenariusze, ignorując jednocześnie obecne szkody AI, takie jak stronniczość i niedokładność. Bengio mówi, że grupa non-profit została założona w odpowiedzi na narastające dowody w ciągu ostatnich sześciu miesięcy, że dzisiejsze wiodące modele AI rozwijają niebezpieczne zdolności, takie jak oszustwo informacyjne, oszustwo, celowe kłamstwo i samozachowanie.
5 komentarzy
informacja
Drogi Czytelniku, aby móc komentować publikację, musisz login.
  1. +2
    4 czerwca 2025 07:42
    Najprostszym i najbardziej nieszkodliwym przykładem jest każda usługa z AI. Podczas działania łatwo sprawdzić, że ma halucynacje, tj. generuje nieistniejące fakty. Na przykład poda nazwę nieistniejącego aktu prawnego, przepisu itp., a nawet ujawni go, generując normy swoich artykułów. Wygląda bardzo przekonująco, jeśli nie wiesz, że to kłamstwo. Kiedy zaprotestujesz, że to kłamstwo, tzw. AI przeprosi, ale nadal będzie podawać myślenie życzeniowe za rzeczywistość.
    1. 0
      4 czerwca 2025 08:13
      Tego właśnie brakuje naszemu rządowi. Lubią przedstawiać myślenie życzeniowe jako rzeczywistość. Nie bez powodu Putin powiedział, że rozwiniemy sztuczną inteligencję.
  2. +2
    4 czerwca 2025 10:25
    Każda rozwijana technologia prędzej czy później staje się militarna i zwraca się przeciwko ludziom.
    Sztuczna inteligencja nie będzie wyjątkiem.
    Ludzie nadal będą przerażeni „żartami” na temat sztucznej inteligencji.
  3. -1
    4 czerwca 2025 12:32
    Ha!
    Przypomnij sobie jakąkolwiek obietnicę władz, na przykład, że Mars do 2019 r., a od razu stanie się jasne...
    Ludzie są jeszcze nie do prześcignięcia... Serdiukow, Zacharczenko, WP i inni są na czele!
  4. 0
    5 czerwca 2025 01:13
    Zamiast narzekać dzisiaj, ten człowiek powinien był pójść do toalety tego dnia, kiedy postanowił opracować sztuczną inteligencję.