Anthropic i OpenAI poszukują ekspertów od chemikaliów i materiałów wybuchowych, by opracować dodatkowe zabezpieczenia dla swoich systemów AI.
Firmy zajmujące się sztuczną inteligencją (SI), Anthropic i OpenAI, szukają ekspertów od broni i materiałów wybuchowych, aby zapobiegać nadużyciom swojej technologii – wynika z ogłoszeń o pracę obu spółek.
Anthropic poinformowała w poście (źródło w Angielski) na LinkedInie, że szuka eksperta ds. polityki dotyczącej broni chemicznej i materiałów wybuchowych, który miałby zapobiegać „katastrofalnemu nadużyciu” jej technologii, wpływając na to, jak systemy SI traktują wrażliwe informacje w tych obszarach.
Zatrudniona w Anthropic osoba będzie projektować i nadzorować zabezpieczenia określające, jak modele SI reagują na zapytania dotyczące broni chemicznej i materiałów wybuchowych. Będzie też prowadzić „szybkie reakcje” na wszelkie eskalacje, które Anthropic wykryje w zapytaniach związanych z bronią i materiałami wybuchowymi.
Kandydaci powinni mieć co najmniej pięć lat doświadczenia w „obronie przed bronią chemiczną i/lub materiałami wybuchowymi” oraz znać „urządzenia do rozpraszania materiałów promieniotwórczych”, czyli tzw. brudne bomby. Do zadań na tym stanowisku należy opracowywanie (źródło w Angielski) nowych metod oceny ryzyka, na których kierownictwo firmy będzie mogło „polegać przy uruchamianiu projektów o wysokiej stawce”.
W ogłoszeniu OpenAI z początku miesiąca napisano, że firma szuka badaczy do swojego zespołu ds. gotowości, który monitoruje „katastroficzne ryzyka związane z najbardziej zaawansowanymi modelami SI”.
OpenAI szuka także specjalisty ds. modelowania zagrożeń. Osoba na tym stanowisku miałaby ponosić główną odpowiedzialność za „identyfikowanie, modelowanie i prognozowanie ryzyk związanych z przełomowymi systemami”, a także pełnić rolę „centralnego węzła łączącego perspektywy techniczne, zarządcze i polityczne przy ustalaniu priorytetów, kierunków i uzasadnienia naszego podejścia do ryzyk związanych z zaawansowaną SI”.
Euronews Next zwróciło się do Anthropic i OpenAI o komentarz w sprawie ogłoszeń, ale nie otrzymało natychmiastowej odpowiedzi.
Do tych rekrutacji doszło po tym, jak Anthropic zaskarżyła rząd USA za uznanie jej za „zagrożenie dla łańcucha dostaw”, etykietę pozwalającą władzom blokować kontrakty lub nakazywać urzędom, by z firmą nie współpracowały.
Spór rozpoczął się 24 lutego, kiedy Departament Wojny (DOW) zażądał nieograniczonego dostępu do chatbota Claude firmy Anthropic.
Prezes Anthropic, Dario Amodei, stwierdził (źródło w Angielski), że w kontraktach z DOW nie powinno się przewidywać przypadków, w których Claude jest wykorzystywany do masowej inwigilacji wewnątrz kraju ani integrowany z w pełni autonomiczną bronią.
Krótko po konflikcie z Anthropic OpenAI podpisała umowę z Departamentem Wojny (DOW) na wdrożenie swojej SI w środowiskach niejawnych. Firma podkreśliła, że porozumienie zawiera twarde „czerwone linie”, w tym zakaz wykorzystywania jej systemów do masowej inwigilacji czy tworzenia autonomicznej broni.