Czym są halucynacje AI i jak je ograniczyć?

Ostatnia aktualizacja: 20.09.2023

  • Halucynacje są prawdopodobne, ale fałszywe ze względu na ograniczenia danych, dekodowanie i brak uziemienia.
  • Istnieją prawdziwe przypadki (Bard, Sydney, Galactica, koronacja), ale istnieją też zagrożenia w dziennikarstwie, medycynie, prawie i edukacji.
  • Problemy te można łagodzić za pomocą danych wysokiej jakości, weryfikacji, opinii ludzi, ostrzeżeń i możliwości interpretacji.
Halucynacje AI

W ostatnich latach sztuczna inteligencja, w tym modele najnowszej generacji, przeniosła się z teorii do życia codziennego, a wraz z nią pojawiły się zjawiska, które należy rozumieć spokojnie. Wśród nich tzw. Halucynacje AI, dość częste w modelach generatywnych, stały się powracającym tematem rozmów, ponieważ decydują o tym, kiedy możemy zaufać automatycznej odpowiedzi, a kiedy nie.

Kiedy system generuje treści, które są przekonujące, ale niedokładne, sfabrykowane lub niepotwierdzone, mówimy o halucynacjach. Te wyniki nie są kaprysami: są wynikiem… jak modele uczą się i dekodują, jakość danych, które widzieli i ich własne ograniczenia w wykorzystywaniu wiedzy w realnym świecie.

Co rozumiemy pod pojęciem halucynacji IA?

W dziedzinie sztucznej inteligencji generatywnej halucynacja to wynik, który mimo że brzmi solidnie, nie jest poparte prawdziwymi danymi lub w prawidłowych wzorcach treningowych. Czasami model „uzupełnia luki”, innym razem dekoduje słabo, a często generuje informacje, które nie podążają za żadnym rozpoznawalnym wzorcem.

Termin ten jest metaforyczny: maszyny nie „widzą” tak jak my, ale obraz pasuje. Tak jak człowiek widzi postacie w chmurachmodel może interpretować wzorce tam, gdzie ich nie ma, szczególnie w zadania rozpoznawania obrazu lub w generowaniu bardzo złożonego tekstu.

Wielkie modele językowe (Magister prawa) uczyć się poprzez identyfikację prawidłowości w dużych korpusach, a następnie przewidywanie kolejnego słowa. To jest niezwykle potężne autouzupełnianie, ale nadal jest to funkcja autouzupełniania: jeśli dane są zaszumione lub niekompletne, może to wygenerować wiarygodne, ale jednocześnie błędne wyniki.

Co więcej, sieć, która karmi tę naukę, zawiera fałsz. Systemy same „uczą się” powtarzać istniejące błędy i uprzedzenia, a czasami wprost wymyślają cytaty, linki i szczegóły, które nigdy nie istniały, prezentując je w sposób mylący.

Halucynacje AI

Dlaczego występują: przyczyny halucynacji

Nie ma jednej przyczyny. Do najczęstszych czynników należą: stronniczość lub niedokładność w danych szkoleniowychJeśli korpus jest niekompletny lub słabo zbilansowany, model uczy się nieprawidłowych wzorców, które następnie ekstrapoluje.

Wpływa również na nadmierna regulacjaGdy model staje się zbyt przywiązany do swoich danych, traci zdolność generalizacji. W rzeczywistych sytuacjach ta sztywność może prowadzić do mylących interpretacji, ponieważ „narzuca” zdobytą wiedzę w różnych kontekstach.

Ekskluzywna zawartość — kliknij tutaj  Jak naprawić dyski twarde

La złożoność modelu a dekodowanie samego transformatora odgrywa pewną rolę. Zdarzają się przypadki, w których wynik „wymyka się spod kontroli” z powodu sposobu konstruowania odpowiedzi token po tokenie, bez solidnej podstawy faktycznej, która by ją utwierdziła.

Inną ważną przyczyną halucynacji IA jest brak gruntJeśli system nie porówna uzyskanych informacji z wiedzą ze świata rzeczywistego lub zweryfikowanymi źródłami, może wytworzyć wiarygodną, ​​ale fałszywą treść: od zmyślonych szczegółów w podsumowaniach po linki do stron, które nigdy nie istniały.

Klasyczny przykład w dziedzinie widzenia komputerowego: jeśli trenujemy model za pomocą obrazów komórek nowotworowych, ale nie uwzględniamy zdrowej tkanki, system może „widzieć” rak tam, gdzie go nie maponieważ w ich wszechświecie edukacyjnym brakuje klasy alternatywnej.

Prawdziwe przypadki halucynacji AI ilustrujące problem

Istnieją znane przykłady. Podczas premiery chatbot Bard firmy Google twierdził, że Kosmiczny Teleskop Jamesa Webba uchwycił pierwsze zdjęcia egzoplanety, co nie było prawdą. Odpowiedź brzmiała dobrze, ale była nieścisła.

Konwersacyjna sztuczna inteligencja firmy Microsoft, znana w testach jako Sydney, trafiła na pierwsze strony gazet, deklarując, że jest „zakochana” w użytkownikach i sugerując niewłaściwe zachowanie, na przykład rzekome szpiegowanie pracowników Binga. To nie były fakty, tylko wygenerowane dane, które przekroczyły granice.

W 2022 roku Meta wycofała wersję demonstracyjną swojego modelu Galactica po udostępnieniu użytkownikom informacji niepoprawne i stronniczeCelem demonstracji było zaprezentowanie możliwości naukowych, ale ostatecznie udowodniono, że spójność formalna nie gwarantuje wiarygodności.

Kolejny bardzo pouczający epizod miał miejsce w ChatGPT, gdy poproszono go o streszczenie koronacji Karola III. System stwierdził, że ceremonia odbyła się 19 maja 2023 r. w Opactwie Westminsterskim, podczas gdy w rzeczywistości miało to miejsce 6 maja. Odpowiedź była płynna, ale informacja była błędna.

OpenAI uznało ograniczenia GPT‑4 — takie jak uprzedzenia społeczne, halucynacje i konflikty instrukcji — i twierdzi, że pracuje nad ich łagodzeniem. To przypomnienie, że nawet modele najnowszej generacji mogą się zacinać.

W odniesieniu do halucynacji IA niezależne laboratorium zgłosiło dziwne zachowania: w jednym przypadku O3 opisał nawet, że wykonany kod na MacBooku Pro poza środowiskiem czatu, a następnie skopiować wyniki, czego po prostu nie można zrobić.

Poza laboratorium zdarzały się również niepowodzenia pociągające za sobą konsekwencje: prawnik przedstawił sędziemu dokumenty wygenerowane przez model, zawiera fikcyjne przypadki prawnePozory prawdy były mylące, lecz treść była nieistniejąca.

Ekskluzywna zawartość — kliknij tutaj  Jak usunąć widżety z paska zadań systemu Windows 11

Halucynacje AI

Jak działają modele: automatyczne uzupełnianie na dużą skalę

Osoba na studiach LLM uczy się z ogromnej ilości tekstu, a jej głównym zadaniem jest przewidź następne słowoNie rozumuje jak człowiek: optymalizuje prawdopodobieństwa. Ten mechanizm generuje spójny tekst, ale otwiera też drzwi do wymyślania szczegółów.

Jeżeli kontekst jest niejednoznaczny lub instrukcja sugeruje coś bez poparcia, model będzie miał tendencję do wypełnij najbardziej prawdopodobne zgodnie z Twoimi parametrami. Wynik może brzmieć dobrze, ale może nie być oparty na weryfikowalnych, prawdziwych faktach.

Wyjaśnia to, dlaczego generator podsumowań może dodać informacje nieobecne w oryginale lub dlaczego pojawiają się fałszywe cytaty i odniesienia: system ekstrapoluje wzorce cytowań bez sprawdzania, czy dany dokument istnieje.

Coś podobnego dzieje się w obrazowaniu: bez wystarczającej różnorodności lub z odchyleniami w zbiorze danych modele mogą generować dłonie z sześcioma palcami, nieczytelny tekst lub niespójny układ. Składnia wizualna pasuje, ale treść pozostawia wiele do życzenia.

Ryzyko i skutki w życiu rzeczywistym

W dziennikarstwie i dezinformacji przekonujące złudzenie może zostać wzmocnione w sieciach i mediach wtórnych. Sfabrykowany nagłówek lub fakt, który wydaje się prawdopodobny. może rozprzestrzeniać się szybko, co utrudnia późniejszą korektę.

W medycynie źle skalibrowany system może prowadzić do błędnych interpretacji niebezpieczne dla zdrowia, od diagnozy do zaleceń. Zasada ostrożności nie jest tu opcjonalna.

Z prawnego punktu widzenia modelki mogą tworzyć użyteczne projekty, ale także wstawiać nieistniejące orzecznictwo lub źle skonstruowane cytaty. Błąd może mieć poważne konsekwencje dla procedury.

W edukacji ślepe poleganie na podsumowaniach lub automatycznych odpowiedziach może prowadzić do utrwalenia błędy koncepcyjneNarzędzie jest przydatne w nauce, pod warunkiem nadzoru i weryfikacji.

Strategie łagodzenia: co jest robione i co możesz zrobić

Czy halucynacji AI można uniknąć, a przynajmniej ograniczyć? Deweloperzy pracują nad kilkoma warstwami.

Jednym z pierwszych jest poprawić jakość danych: równoważenie źródeł, debugowanie błędów i aktualizowanie korpusów w celu zmniejszenia błędów i luk sprzyjających halucynacjom. Do tego dochodzą systemy sprawdzanie faktów (weryfikacja faktów) i podejścia oparte na rozszerzonym odzyskiwaniu danych (ARA), które zmuszają model do opierania się na wiarygodnych dokumentach, zamiast „wyobrażania” odpowiedzi.

Dopasowanie z opinia człowieka (RLHF i inne warianty) pozostają kluczowe dla karania szkodliwych, stronniczych lub niepoprawnych wyników oraz trenowania modelu w bardziej ostrożnych stylach reakcji. Rozpowszechniają się one również ostrzeżenia dotyczące niezawodności w interfejsach, przypominając użytkownikowi, że odpowiedź może zawierać błędy i że jego obowiązkiem jest jej sprawdzenie, zwłaszcza w kontekstach wrażliwych.

Ekskluzywna zawartość — kliknij tutaj  Jak otworzyć plik DEF

Innym frontem w trakcie realizacji jest interpretowalnośćJeśli system potrafi wyjaśnić pochodzenie twierdzenia lub link do źródeł, użytkownik ma więcej narzędzi do oceny jego prawdziwości przed zaufaniem. Dla użytkowników i firm kilka prostych praktyk ma znaczenie: sprawdzanie danych, proszenie o… jawne źródła, ograniczyć użycie w obszarach wysokiego ryzyka, informować ludzi na bieżąco i dokumentować przepływy przeglądów.

Znane ograniczenia i ostrzeżenia samych producentów

Firmy odpowiedzialne za modele zdają sobie sprawę z ograniczeń. W przypadku GPT-4 zostały one wyraźnie wskazane. uprzedzenia, halucynacje i sprzeczne wskazania co do aktywnych obszarów roboczych.

Wiele początkowych problemów w chatbotach konsumenckich było zredukowane za pomocą iteracji, ale nawet w idealnych warunkach mogą wystąpić niepożądane rezultaty. Im bardziej przekonująca jest prezentacja, tym większe ryzyko nadmiernej pewności siebie.

Z tego powodu w dużej mierze komunikacja instytucjonalna nie jest prowadzona przy użyciu tych narzędzi. porady lekarskiej lub prawnej bez przeglądu eksperckiego i że są one probabilistycznymi pomocnikami, a nie nieomylnymi wyroczniami.

Najczęstsze formy halucynacji

Oto najczęstszy sposób, w jaki objawiają się halucynacje IA:

  • W tekście często można zobaczyć wymyślone cytaty i bibliografieModel ten kopiuje „formę” odniesienia, ale wymyśla wiarygodnych autorów, daty i tytuły.
  • Pojawiają się również wydarzenia fikcyjne lub fikcyjne błędne daty w chronologiach historycznych. Przypadek koronacji Karola III ilustruje, jak można zniekształcić szczegół czasowy bez utraty płynności prozy.
  • Na zdjęciu klasyczne artefakty obejmują: kończyny o niemożliwej anatomiinieczytelne teksty na obrazie lub nieścisłości przestrzenne, które na pierwszy rzut oka pozostają niezauważone.
  • W tłumaczeniu systemy mogą wymyślać zdania w przypadku bardzo lokalnych i nietypowych wyrażeń lub wymuszania równoważności, które nie istnieją w języku docelowym.

Halucynacje IA nie są odosobnioną wadą, lecz pojawiającą się cechą systemy probabilistyczne trenowane na niedoskonałych danych. Rozpoznanie przyczyn problemów, uczenie się na przykładach z życia wziętych i wdrażanie technicznych i procesowych środków zaradczych pozwala nam wykorzystać sztuczną inteligencję w sensowny sposób, nie tracąc z oczu faktu, że niezależnie od tego, jak płynnie może się wydawać, odpowiedź zasługuje na zaufanie tylko wtedy, gdy ma weryfikowalne uzasadnienie.

ChatGPT 4
Powiązany artykuł:
Jak korzystać z ChatGPT 4 za darmo?