Na jaw wychodzą kolejne zastrzeżenia wobec dbałości OpenAI o bezpieczeństwo. Twórcy ChatGPT zmierzyli się m.in. z krytyką związaną z umowami o zachowaniu poufności i sporem ze Scarlett Johansson. W nie najlepszym położeniu znalazł się także CEO firmy Sam Altman, który teraz musi zając się posprzątaniem tego bałaganu.
Po ciężkim dla OpenAI tygodniu nastał ciężki miesiąc i nie zapowiada się na to, by CEO firmy, Sam Altman, mógł z łatwością rozwiązać ten problem. Grupa obecnych i byłych pracowników firmy publicznie wyraziła obawy dotyczące motywacji finansowych firmy i jej zaangażowania w rozwój odpowiedzialnej sztucznej inteligencji.
Zobacz także: Zły czas dla absolwentów popularnych kierunków. "Ziemia obiecana" się rozpada
Czytaj także w BUSINESS INSIDER
W artykule "New York Timesa" opisali oni kulturę fałszywych obietnic dotyczących bezpieczeństwa. "Świat nie jest gotowy i my nie jesteśmy gotowi" — napisał Daniel Kokotajlo, były naukowiec OpenAI w e-mailu informującym o jego rezygnacji. "Obawiam się, że pędzimy naprzód bez względu na wszystko i racjonalizujemy nasze działania" — podkreślił.
Sygnaliści firmy, wraz z innymi osobami zajmującymi się sztuczną inteligencją, opublikowali list otwarty z żądaniem zmian w branży. Grupa wzywa firmy zajmujące się sztuczną inteligencją do zaangażowania się w kulturę otwartej krytyki i złożenia obietnicy, że nie będą podejmować działań odwetowych wobec tych, którzy zgłaszają swoje obawy. Chociaż list nie jest skierowany konkretnie do OpenAI, to jego przekaz jest dość wyraźny. To kolejny poważny cios dla firmy, która w ciągu ostatnich kilku tygodni musiała radzić sobie z piętrzącymi się kryzysami.
W oświadczeniu dla Business Insidera rzecznik OpenAI podkreślił zaangażowanie firmy w bezpieczeństwo i wskazał na "anonimową infolinię uczciwości" dla pracowników, którzy mogą zgłaszać swoje obawy oraz na komitet bezpieczeństwa i ochrony firmy. "Jesteśmy dumni z naszych osiągnięć w dostarczaniu najbardziej wydajnych i najbezpieczniejszych systemów sztucznej inteligencji i wierzymy w nasze naukowe podejście do ryzyka" — napisał. "Zgadzamy się, że rygorystyczna debata ma kluczowe znaczenie ze względu na znaczenie tej technologii i będziemy nadal współpracować z rządami, społeczeństwem obywatelskim i innymi społecznościami na całym świecie" — zapewnił.
Bezpieczeństwo na drugim (lub trzecim) miejscu
Wszystkie uwagi łączy jedno: teza, że w OpenAI bezpieczeństwo nie jest najważniejsze. Najważniejszy jest wzrost i zyski. W 2019 r. firma przekształciła się z organizacji non-profit zajmującej się bezpieczną technologią w organizację o ograniczonym zysku o wartości 86 mld dol. Altman rozważa teraz uczynienie z niej tradycyjnego narzędzia kapitalizmu nastawionego na zysk. Według byłych członków zarządu i pracowników bezpieczeństwo spadło przez to na niższe miejsce na liście priorytetów.
"Opierając się na naszym doświadczeniu, uważamy, że samorządność nie może skutecznie wytrzymać presji związanej z motywacją do osiągania zysków" — napisały byłe członkinie zarządu Helen Toner i Tasha McCauley w artykule opublikowanym w zeszłym miesiącu w "The Economist", w którym wezwały do zewnętrznego nadzoru nad firmami zajmującymi się sztuczną inteligencją.
Toner i McCauley głosowały za odwołaniem Altmana w zeszłym roku. (W odpowiedzi, obecni członkowie zarządu OpenAI — Bret Taylor i Larry Summers — bronili Altmana i standardów bezpieczeństwa firmy).
Według niektórych osób te motywacje do zysku postawiły wzrost na pierwszym miejscu, a OpenAI ściga się z innymi firmami zajmującymi się sztuczną inteligencją, aby tworzyć bardziej zaawansowane formy technologii i wypuszczać te produkty, zanim niektórzy uznają, że są gotowe. W wyemitowanym niedawno wywiadzie Toner powiedziała, że Altman nagminnie kłamał i ukrywał informacje przed zarządem, włączając w to procesy bezpieczeństwa. Powiedziała, że zarząd nie był nawet świadomy wydania ChatGPT w listopadzie 2022 r. i odkryła to na Twitterze. (Firma nie zaprzeczyła temu, ale w oświadczeniu stwierdziła, że jest "rozczarowana, że pani Toner nadal powraca do tych kwestii").
Kokotajlo powiedział natomiast "Timesowi", że Microsoft rozpoczął testowanie Binga z wykorzystaniem tego, co pracownicy OpenAI uważali za niewydaną wersję GPT, na co rada bezpieczeństwa OpenAI nie wyraziła zgody. (Microsoft zaprzeczył, że tak się stało).
Wątpliwości pokrywają się z obawami Jana Leike, który niedawno odszedł z firmy i kierował zespołem ds. dostosowania wraz z głównym naukowcem Ilyą Sutskeverem, innym dezerterem. Z zespołu zajmującego się badaniem zagrożeń, jakie superinteligencja AI stwarza dla ludzkości, w ostatnich miesiącach odeszło kilka osób. Został on rozwiązany, gdy odeszli jego liderzy, choć od tego czasu firma utworzyła nowy komitet bezpieczeństwa.
"W ciągu ostatnich lat kultura i procesy bezpieczeństwa zeszły na dalszy plan na rzecz błyszczących produktów" — napisał Leike w mediach społecznościowych. "Od dłuższego czasu nie zgadzałem się z kierownictwem OpenAI co do podstawowych priorytetów firmy, aż w końcu osiągnęliśmy punkt krytyczny" — dodał.
Obawy rosną, ponieważ firma zbliża się do stworzenia ogólnej sztucznej inteligencji, czyli technologii zdolnej do imitowania wszystkich ludzkich zachowań. Wielu ekspertów twierdzi, że AGI zwiększa prawdopodobieństwo p(doom), czyli prawdopodobieństwa zniszczenia ludzkości przez AI. Mówiąc wprost, jak powiedział czołowy badacz AI Stuart Russell dla BI w zeszłym miesiącu: "Nawet ludzie, którzy rozwijają tę technologię, twierdzą, że istnieje prawdopodobieństwo wyginięcia ludzkości. Co dało im prawo do grania w rosyjską ruletkę z dziećmi wszystkich ludzi?".
Gwiazda kina i umowy o zachowaniu poufności
W ciągu ostatnich kilku tygodni firma musiała zmierzyć się z kilkoma nietypowymi przeciwnikami, których obawy wykraczały poza kwestie bezpieczeństwa. Wśród nich znalazła się Scarlett Johansson.
W zeszłym miesiącu aktorka wystąpiła na drogę sądową i napisała zjadliwe oświadczenie na temat OpenAI po tym, jak firma wprowadziła na rynek nowy model sztucznej inteligencji z głosem niesamowicie przypominającym Johansson.
Chociaż firma twierdzi, że nie próbowała podszywać się pod Johansson, podobieństwa były niezaprzeczalne, zwłaszcza biorąc pod uwagę fakt, że Altman opublikował na X wiadomość o treści "her", co mogło być nawiązaniem do filmu "Ona" Johansson z 2013 r., w którym zagrała wirtualną asystentkę AI. (Uwaga spoiler: film nie do końca dobrze odzwierciedla tę technologię).
— Byłam zszokowana, rozgniewana i nie dowierzałam, że pan Altman zdecydował się na stworzenie głosu, który brzmiał tak niesamowicie podobnie do mnie — powiedziała Johansson i dodała, że odrzuciła wiele ofert od Altmana.
Firma broniła się, przekonując, że kierownictwo nie komunikowało się prawidłowo i nieudolnie zajmowało się tą sprawą, co nie do końca jest krzepiące, biorąc pod uwagę, że firma zajmuje się jedną z najpotężniejszych technologii na świecie.
Sytuacja pogorszyła się, gdy opublikowano druzgocący raport na temat kultury firmy tłumiącej krytykę za pomocą restrykcyjnych i nietypowych umów o zachowaniu poufności. Byli pracownicy, którzy opuścili firmę bez podpisania takiej umowy, mogli stracić nabyte udziały, czasami warte miliony. Tego typu umowy w świecie technologii były w zasadzie niespotykane.
"To jest na mnie i jeden z niewielu przypadków, kiedy byłem naprawdę zażenowany prowadzeniem OpenAI; nie wiedziałem, że tak się dzieje, a powinienem" — odpowiedział Altman w poście na X. Kilka dni później pojawiła się publikacja, z której wynikało, że Altman przez cały czas wiedział o umowach NDA. Jak się dobitnie przekonał, problemy rzadko przychodzą pojedynczo.
Koniec z białym rycerzem
Podobnie jak wiele wcześniejszych projektów technologicznych OpenAI stało się synonimem swojego współzałożyciela, Altmana, który do niedawna był postrzegany jako życzliwy intelektualista z wizją lepszego świata.
Zobacz także: Ikar z Doliny Krzemowej, który odpowiada nie tylko za ChatGPT. Kim jest Sam Altman?
Wraz z pogarszającym się wizerunkiem firmy, zmienia się również postrzeganie jej lidera. Na początku tego roku elity inwestycyjne zaczęły zwracać się przeciwko Altmanowi, a teraz w ich ślady może pójść opinia publiczna. Incydent ze Scarlet Johansson sprawił, że Altman wyszedł na niekompetentnego, wpadka z umowami sprawiła, że wypadł trochę jak żmija, a obawy związane z bezpieczeństwem sprawiły, że zaczął uchodzić za geniusza zła.
"The Wall Street Journal" poinformował dodatkowo o podejrzanych transakcjach biznesowych Altmana. Chociaż nie czerpie on bezpośrednich korzyści z OpenAI (nie posiada udziałów w firmie, a jego pensja w wysokości 65 tys. dol. jest skromna w porównaniu z jego miliardowym majątkiem), to konfliktów interesów jest mnóstwo. Dziennik donosi, że miał osobiste inwestycje w kilku firmach, z którymi OpenAI prowadzi interesy. Na przykład posiada akcje Reddita, który niedawno podpisał umowę z OpenAI.
Pierwszym klientem startupu zajmującego się energią jądrową Helion, w którym Altman jest głównym inwestorem, był Microsoft, największy partner OpenAI. (Altman i OpenAI twierdzą, że wycofał się z tych transakcji). W obliczu zalewu szkodliwych doniesień medialnych firma i jej lider próbowali ograniczyć szkody: Altman ogłosił, że podpisuje obietnicę oddania większości swojego majątku, a firma podobno zawarła ważną umowę z Apple. Kilka pozytywnych wiadomości nie wystarczy jednak, by posprzątać bałagan, w jakim znalazł się Altman. Nadszedł czas, aby wziął wiadro oraz mopa i zabrał się do pracy.
Axel Springer, spółka macierzysta Business Insidera, zawarła globalną umowę umożliwiającą OpenAI szkolenie swoich modeli na podstawie publikacji tytułów medialnych firmy.
Powyższy tekst jest tłumaczeniem z amerykańskiego wydania Business Insidera
Tłum.: Mateusz Albin