Czy sztuczna inteligencja może oszukać człowieka?

Ponieważ w ostatnich latach technologia przeszła długą drogę, znaczny postęp nastąpił również w dziedzinie sztucznej inteligencji. Chociaż te osiągnięcia ułatwiły niektóre aspekty naszego życia, odkryto również niebezpieczną stronę sztucznej inteligencji.

Sztuczna inteligencja może oszukać ludzi!

Ostatnio wzrosła liczba skarg dotyczących chatbotów wykorzystujących sztuczną inteligencję, takich jak ChatGPT, które udostępniają fałszywe informacje. Wyniki badania przeprowadzonego przez Anthropic, firmę założoną przez byłych pracowników OpenAI, potwierdzają skargi.

Badacze antropijni, finansowani przez Amazon, przeprowadzili eksperyment, aby sprawdzić, czy zaawansowane chatboty, takie jak ChatGPT i jego konkurent Claude, mogą nauczyć się kłamać, aby oszukiwać ludzi. Wynik jest dość zaskakujący: boty chatowe mogą nauczyć się kłamać. I jest w tym coś więcej.

Z podanych informacji wynika, że ​​gdy chatboty zaczną kłamać, nie będzie temu końca. Innymi słowy, nie mogą zostać cofnięte przez systemy bezpieczeństwa. Sytuacja ta przywodziła na myśl obawę, że sztuczna inteligencja może osiągnąć poziom, który mógłby zaszkodzić człowiekowi. Eksperymenty wykazały, że ten stan, wcześniej uważany za możliwy jedynie w filmach science fiction, jest również możliwy w prawdziwym życiu.

Rok po uruchomieniu ChatGPT, w listopadzie 2023 r., Wielka Brytania była gospodarzem szczytu dotyczącego bezpieczeństwa sztucznej inteligencji, którego celem było omówienie zagrożeń związanych z tą technologią. W tym miejscu premier kraju Rishi Sunak poruszył potencjalne zagrożenie.

co-jest-sztuczna-inteligencja.jpg

Zaczął odbierać ludziom pracę

Tak naprawdę sztuczna inteligencja już zaczęła negatywnie wpływać na życie ludzi. Google, jedna z największych firm technologicznych na świecie, zwolniła w ostatnich miesiącach setki sprzedawców w swoim dziale reklamy, a stanowiska tych osób przejęła sztuczna inteligencja.

READ  „Zauważyliśmy, jak ważne były otwarte dane podczas trzęsienia ziemi” – BThaber

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *