Wiarygodność komunikatów generowanych przez sztuczną inteligencję

Dzięki chatbotom wspieranym przez sztuczną inteligencję można się teraz dowiedzieć wszystkiego i zapytać o aktualności. Ale jak niezawodna jest jeszcze sztuczna inteligencja?

Rzućmy trochę światła na to pytanie, przeprowadzając eksperyment, aby sprawdzić, czy ChatGPT zapewnia dokładne linki do artykułów w publikacjach informacyjnych, za które Neeman Lab zapłaciło miliony dolarów. Zjawisko, które branża AI nazywa „halucynacjami”, tak naprawdę pokazuje, że sztuczna inteligencja może nie być zbyt wiarygodna.

Rzecznik OpenAI powiedział Nieman Lab, że „ChatGPT zapewnia niezrównane doświadczenie w agregowaniu wiadomości i dostarczaniu dokładnych wiadomości”. Innymi słowy, sztucznej inteligencji nadal nie jest w stanie dostarczać dokładnych komunikatów. Nie wiemy, kiedy to nowe doświadczenie będzie dostępne i jak niezawodne będzie. Można przypuszczać, że stworzenie sztucznej inteligencji jako zagrożenie dla branży informacyjnej jawi się jako przyszłość, w której większość stanowisk pracy nie będzie wymagać obecności ludzi.

Płynie z tego również lekcja: jeśli ChatGPT generuje fałszywe adresy URL, generuje także prawdziwe. Tak działa generatywna sztuczna inteligencja; Zasadniczo automatycznie skanuje i wspomaga technologię, ale może także instalować niektóre elementy predykcyjnie. Z tego powodu pełne zaufanie sztucznej inteligencji może być trudne. Podkreślmy jednak, że wciąż rośnie.

Centrum Wiadomości

READ  Czy ekscytacja związana z technologią i sztuczną inteligencją zamieni się w bańkę?

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *