Newsletter Biuletyny informacyjne Events Wydarzenia Podcasty Filmy Africanews
Loader
Śledź nas
Reklama

Anthropic i OpenAI zatrudniają ekspertów od broni, by zapobiec katastrofalnym nadużyciom

ARCHIWUM – Na zdjęciu strona internetowa Anthropic i aplikacja mobilna na smartfonie, Nowy Jork, 5 lipca 2024 r.
Na zdjęciu archiwalnym widać stronę internetową i aplikację mobilną Anthropic, Nowy Jork, 5 lipca 2024 r. Prawo autorskie  AP Photo/Richard Drew, File
Prawo autorskie AP Photo/Richard Drew, File
Przez Anna Desmarais
Opublikowano dnia
Udostępnij
Udostępnij Close Button

Anthropic i OpenAI poszukują ekspertów od chemikaliów i materiałów wybuchowych, by opracować dodatkowe zabezpieczenia dla swoich systemów AI.

Firmy zajmujące się sztuczną inteligencją (SI), Anthropic i OpenAI, szukają ekspertów od broni i materiałów wybuchowych, aby zapobiegać nadużyciom swojej technologii – wynika z ogłoszeń o pracę obu spółek.

REKLAMA
REKLAMA

Anthropic poinformowała w poście (źródło w Angielski) na LinkedInie, że szuka eksperta ds. polityki dotyczącej broni chemicznej i materiałów wybuchowych, który miałby zapobiegać „katastrofalnemu nadużyciu” jej technologii, wpływając na to, jak systemy SI traktują wrażliwe informacje w tych obszarach.

Zatrudniona w Anthropic osoba będzie projektować i nadzorować zabezpieczenia określające, jak modele SI reagują na zapytania dotyczące broni chemicznej i materiałów wybuchowych. Będzie też prowadzić „szybkie reakcje” na wszelkie eskalacje, które Anthropic wykryje w zapytaniach związanych z bronią i materiałami wybuchowymi.

Kandydaci powinni mieć co najmniej pięć lat doświadczenia w „obronie przed bronią chemiczną i/lub materiałami wybuchowymi” oraz znać „urządzenia do rozpraszania materiałów promieniotwórczych”, czyli tzw. brudne bomby. Do zadań na tym stanowisku należy opracowywanie (źródło w Angielski) nowych metod oceny ryzyka, na których kierownictwo firmy będzie mogło „polegać przy uruchamianiu projektów o wysokiej stawce”.

W ogłoszeniu OpenAI z początku miesiąca napisano, że firma szuka badaczy do swojego zespołu ds. gotowości, który monitoruje „katastroficzne ryzyka związane z najbardziej zaawansowanymi modelami SI”.

OpenAI szuka także specjalisty ds. modelowania zagrożeń. Osoba na tym stanowisku miałaby ponosić główną odpowiedzialność za „identyfikowanie, modelowanie i prognozowanie ryzyk związanych z przełomowymi systemami”, a także pełnić rolę „centralnego węzła łączącego perspektywy techniczne, zarządcze i polityczne przy ustalaniu priorytetów, kierunków i uzasadnienia naszego podejścia do ryzyk związanych z zaawansowaną SI”.

Euronews Next zwróciło się do Anthropic i OpenAI o komentarz w sprawie ogłoszeń, ale nie otrzymało natychmiastowej odpowiedzi.

Do tych rekrutacji doszło po tym, jak Anthropic zaskarżyła rząd USA za uznanie jej za „zagrożenie dla łańcucha dostaw”, etykietę pozwalającą władzom blokować kontrakty lub nakazywać urzędom, by z firmą nie współpracowały.

Spór rozpoczął się 24 lutego, kiedy Departament Wojny (DOW) zażądał nieograniczonego dostępu do chatbota Claude firmy Anthropic.

Prezes Anthropic, Dario Amodei, stwierdził (źródło w Angielski), że w kontraktach z DOW nie powinno się przewidywać przypadków, w których Claude jest wykorzystywany do masowej inwigilacji wewnątrz kraju ani integrowany z w pełni autonomiczną bronią.

Krótko po konflikcie z Anthropic OpenAI podpisała umowę z Departamentem Wojny (DOW) na wdrożenie swojej SI w środowiskach niejawnych. Firma podkreśliła, że porozumienie zawiera twarde „czerwone linie”, w tym zakaz wykorzystywania jej systemów do masowej inwigilacji czy tworzenia autonomicznej broni.

Przejdź do skrótów dostępności
Udostępnij

Czytaj Więcej

Gracze Pokémon Go nieświadomie pomagali szkolić roboty dostawcze

Od agentów AI po orbitę: najważniejsze ogłoszenia z dorocznej konferencji Nvidii

Meta: prywatne wiadomości na Instagramie nie będą już szyfrowane