OpenAI planuje utworzenie zespołu, który pomoże zarządzać ryzykiem związanym z superinteligentnym systemem AI, którego oczekuje się w ciągu następnej dekady.
Sztuczna inteligencja wymaga nadzoru ryzyka
Zespół odpowiedzialny za popularnego chatbota opartego na sztucznej inteligencji (AI) – ChatGPT, twierdzi, że utworzy zespół mający na celu ograniczenie i zarządzanie ryzykiem związanym z superinteligentnymi systemami AI.
W ogłoszeniu na blogu OpenAI z dnia 5 lipca, firma ta informuje, że nowy zespół zostanie utworzony w celu „kierowania i kontrolowania systemów AI znacznie inteligentniejszych od nas”.
Organizacja non-profit twierdzi w swoim oświadczeniu, że uważa superinteligencję za „najbardziej wpływową technologię, jaką ludzkość kiedykolwiek wynalazła” i że może ona pomóc w rozwiązaniu wielu problemów, choć istnieją ryzyka.
„Ogromna siła superinteligencji może być również bardzo niebezpieczna i może prowadzić do pozbawienia ludzkości władzy lub nawet jej wyginięcia”. OpenAI uważa, że superinteligencja może pojawić się w ciągu najbliższej dekady.
OpenAI zapowiedziało, że przeznaczy 20% obliczeń, które już posiada, na to zadanie i zamierza stworzyć automatycznego badacza ds. automatycznego wyrównywania na poziomie zbliżonym do człowieka. Automatyczny badacz miałby teoretycznie pomóc zespołowi zarządzać bezpieczeństwem superinteligencji i wyrównać ją z „intencją człowieka”.
Obecnie firma wyznaczyła swojego głównego naukowca Ilyę Sutskevera i szefa laboratorium ds. wyrównywania Jana Leike jako współliderów tego przedsięwzięcia. Wprowadziła także otwarty nabór dla badaczy i inżynierów zajmujących się uczeniem maszynowym, którzy chcieliby dołączyć do zespołu.
OpenAI wstrzymuje funkcję Bing w ChatGPT, gdyż użytkownicy omijali płatności
To ogłoszenie OpenAI pojawia się w momencie, gdy rządy na całym świecie rozważają środki kontrolowania rozwoju, wdrażania i wykorzystywania systemów AI.
Regulatorzy w Unii Europejskiej są jednymi z najbardziej zaawansowanych w zakresie wdrażania przepisów dotyczących AI. 14 czerwca Parlament Europejski przyjął pierwotne rozporządzenie UE dotyczące AI – przepisy,które nakładają obowiązek na systemy takie jak ChatGPT, aby ujawniały całą generowaną przez AI treść, wraz z innymi środkami.
Projekt ustawy nadal wymaga dalszych dyskusji w Parlamencie przed jego wprowadzeniem. Niemniej jednak, projekt wzbudził protesty ze strony twórców AI, którzy obawiają się, że może on zatrzymać innowację.
Przeczytaj również: Czym jest DEFI?
W maju CEO OpenAI, Sam Altman, udał się do Brukseli, aby rozmawiać z przedstawicielami unijnych regulacji na temat potencjalnie negatywnych skutków nadmiernej regulacji.
W Stanach Zjednoczonych również wprowadzono „Ustawę o Komisji Krajowej ds. AI”, która ma ustanowić komisję decydującą o podejściu kraju do AI. Regulatorzy w USA również publicznie wyrazili swoje pragnienie regulacji technologii.
30 czerwca senator Michael Bennet wystosował list do głównych firm technologicznych, w tym OpenAI, wzywając do oznaczania treści generowanych przez AI.