Rząd USA chce wytropić defekty sztucznej inteligencji, które wy – tak, wy – tworzycie

Podczas konferencji Defcon Hacker Conference 2023 w Las Vegas wiodące firmy zajmujące się technologią sztucznej inteligencji połączą siły z grupami zajmującymi się integralnością algorytmiczną i przejrzystością, aby przyciągnąć tysiące uczestników do swoich produkcyjnych platform sztucznej inteligencji i odkryć słabości w tych krytycznych systemach. To ćwiczenie „czerwonej drużyny”, wspierane przez rząd USA, stanowiło krok w kierunku otwarcia tych coraz przydatnych, ale nieprzejrzystych systemów na kontrolę. Teraz organizacja non-profit Human Intelligence zajmująca się etyczną sztuczną inteligencją i oceną algorytmiczną idzie o krok dalej w tym modelu. w środę, Grupa zaproszona do udziału We współpracy z amerykańskim Narodowym Instytutem Standardów i Technologii zapraszamy wszystkich mieszkańców USA do wzięcia udziału w rundzie kwalifikacyjnej ogólnokrajowej inicjatywy Red Team mającej na celu ocenę oprogramowania biurowego AI.

Kwalifikacje będą prowadzone online i umożliwią zarówno programistom, jak i Każdy z ogółu społeczeństwa Część wyzwań związanych ze sztuczną inteligencją NIST jest znana jako ocena ryzyka i wpływu sztucznej inteligencji lub ARIA. Uczestnicy, którzy przejdą rundę kwalifikacyjną, wezmą udział w jednoosobowym wydarzeniu Red Team podczas konferencji Applied Machine Learning in Information Security (CAMLIS) w Wirginii pod koniec października. Celem jest rozszerzenie możliwości rygorystycznej weryfikacji bezpieczeństwa, trwałości i etyki technologii AI.

„Przeciętna osoba korzystająca z jednego z tych modeli nie jest w stanie ocenić, czy model ten jest odpowiedni do założonego celu” – mówi Theo Scatas, dyrektor generalny Tech Coverage Consulting, grupy zajmującej się zarządzaniem sztuczną inteligencją i bezpieczeństwem w Internecie, która współpracuje z ludzką inteligencją. „Chcemy więc zdemokratyzować możliwość przeprowadzania ewaluacji i mieć pewność, że każdy korzystający z tych modeli będzie mógł samodzielnie ocenić, czy model spełnia jego potrzeby”.

Podczas finałowego wydarzenia w CAMLIS uczestnicy zostaną podzieleni na drużynę czerwoną, która próbuje atakować systemy AI, oraz drużynę niebieską, która pracuje w obronie. Uczestnicy będą korzystać z: Ramy zarządzania ryzykiem AI NISTAI 600-1 jest znany jako punkt odniesienia do pomiaru, czy zespół czerwonych może generować wyniki naruszające oczekiwane zachowanie systemów.

READ  Wyceny spółek technologicznych znów stają się atrakcyjne: UBS według Investing.com

„ARIA NIST wykorzystuje ustrukturyzowane opinie użytkowników, aby zrozumieć rzeczywiste zastosowania modeli sztucznej inteligencji” – powiedział Chowdhury, założyciel Human Intelligence, który jest także wykonawcą Biura NIST ds. Powstających Technologii i Rady ds. Bezpieczeństwa i Bezpieczeństwa AI Departamentu Bezpieczeństwa Wewnętrznego Stanów Zjednoczonych. „Zespół ARIA zajmuje się głównie testowaniem i oceną technologii społecznościowych oraz specjalistyczną wiedzą [is] „Wykorzystanie tej wiedzy jako sposobu na postęp w dziedzinie rygorystycznej oceny naukowej powstającej sztucznej inteligencji”.

Partnerstwo Chowdhury i Schedas, NIST jest jedną z serii współpracy AI Red Team, którą Human Intelligence ogłosi w nadchodzących tygodniach z agencjami rządowymi USA, rządami międzynarodowymi i organizacjami pozarządowymi. Inicjatywa ma na celu zwiększenie powszechnego tworzenia przez przedsiębiorstwa i instytucje mechanizmów „czarnych skrzynek” zapewniających przejrzystość i rozliczalność za pomocą mechanizmów takich jak „wyzwania pro-bounty”, w ramach których pojedyncze osoby mogą być nagradzane za wykrywanie problemów i nierówności w modelach sztucznej inteligencji.

„Społeczność musi obejmować nie tylko programistów” – mówi Skedas. „W walidację i ocenę tych systemów powinni być zaangażowani decydenci, dziennikarze, społeczeństwo obywatelskie i osoby nietechniczne. „Musimy zadbać o to, aby w tym procesie mogły uczestniczyć niedostatecznie reprezentowane grupy, takie jak osoby posługujące się językami mniejszościowymi lub osoby wywodzące się z kultur i punktów widzenia niebędących mniejszościami”.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *