Anthropic zdecydowanie sprzeciwia się używaniu jego modeli w celach inwigilacji i działań bojowych. Takie nastawienie nie idzie jednak w parze z podejściem władz USA, które sztucznej inteligencji tej firmy miały oddać decydującą rolę ws. taktyki na wojnie z Iranem. Ostatecznie Pentagon i twórcy Claude'a wrócili jednak do rozmów.
Anthropic z ich sztuczną inteligencją Claude postawiło ostre warunki Departamentowi Wojny USA. W odpowiedzi ich AI zostało uznane przez Pete'a Hegsetha za "zagrożenie dla łańcucha dostaw". Okazuje się jednak, że technologie Anthropic stanowią zbyt łakomy kąsek dla Pentagonu i nie zamierza on rezygnować z ich funkcjonalności.
Wspomniane zagrożenie dla łańcucha dostaw w praktyce wykluczało wykorzystanie AI Anthropic w instytucjach i systemach rządowych USA. Firma naraża się także na intensywniejsze kontrole i monitoring swojej działalności.
"Washington Post" podaje, że Claude już na tym etapie stanowi istotne wsparcie dla operacji militarnych. Miał on być wykorzystany podczas aresztowania Nicolasa Maduro, a także do określania celów ataków w Iranie. Wygląda na to, że Claude jest na tyle skuteczny, że pierwotnie ostra strategia negocjacyjna Pentagonu zaczyna zwalniać. Rusza nowe rozdanie, do stołu zasiądą Dario Amodei – prezes Anthropic i amerykański wiceminister obrony USA – Emil Michael.
Dlaczego Anthropic zerwało rozmowy z Pentagonem?
Z oświadczenia Anthropic możemy dowiedzieć się, że zgodnie z obowiązującym prawem, rząd USA może uzyskiwać szczegółowe dane dotyczące funkcjonowania swoich obywateli bez konieczności uzyskiwania prawnego nakazu. Każdy krok obywatela USA jest podatny na monitorowanie i inwigilację – niezależnie od tego, czy chodzi o prywatne spotkania, czy historię przeglądania Internetu.
Budzi to bardzo uzasadnione obawy względem prywatności, nie tylko na poziomie samego Anthropic, ale także w samym Kongresie USA.
Anthropic twierdzi, że taki sposób przetwarzania danych szkodzi podstawowym wolnościom jednostki. To jednak nie koniec. Pozyskanie tych pojedynczych danych jest naruszeniem prywatności, ale w nowej rzeczywistości przeradza się w coś znacznie gorszego. AI może te dane uzbroić, zebrać je w kompleksowy obraz życia profilowanej osoby. To realnie piszący się scenariusz rodem z Black Mirror.
Anthropic nie chce także, by jej AI było wykorzystywane jako broń autonomiczna. Uważa, że uzbrojone autonomiczne AI jest zagrożeniem nie tylko dla wrogów, ale także dla cywili i osób, które będą się nim posługiwać. Anthropic apeluje o rozwagę i współpracę w zakresie tworzenia niezawodnych systemów. Claude od Anthropic ma dowodzić na wojnie z Iranem. Pentagon nie mógł więc odpuścić
Anthropic zdecydowanie sprzeciwia się używaniu jego modeli w celach inwigilacji i działań bojowych. Takie nastawienie nie idzie jednak w parze z podejściem władz USA, które sztucznej inteligencji tej firmy miały oddać decydującą rolę ws. taktyki na wojnie z Iranem. Ostatecznie Pentagon i twórcy Claude'a wrócili jednak do rozmów.
Anthropic z ich sztuczną inteligencją Claude postawiło ostre warunki Departamentowi Wojny USA. W odpowiedzi ich AI zostało uznane przez Pete'a Hegsetha za "zagrożenie dla łańcucha dostaw". Okazuje się jednak, że technologie Anthropic stanowią zbyt łakomy kąsek dla Pentagonu i nie zamierza on rezygnować z ich funkcjonalności.
Wspomniane zagrożenie dla łańcucha dostaw w praktyce wykluczało wykorzystanie AI Anthropic w instytucjach i systemach rządowych USA. Firma naraża się także na intensywniejsze kontrole i monitoring swojej działalności.
"Washington Post" podaje, że Claude już na tym etapie stanowi istotne wsparcie dla operacji militarnych. Miał on być wykorzystany podczas aresztowania Nicolasa Maduro, a także do określania celów ataków w Iranie. Wygląda na to, że Claude jest na tyle skuteczny, że pierwotnie ostra strategia negocjacyjna Pentagonu zaczyna zwalniać. Rusza nowe rozdanie, do stołu zasiądą Dario Amodei – prezes Anthropic i amerykański wiceminister obrony USA – Emil Michael.
Dlaczego Anthropic zerwało rozmowy z Pentagonem?
Z oświadczenia Anthropic możemy dowiedzieć się, że zgodnie z obowiązującym prawem, rząd USA może uzyskiwać szczegółowe dane dotyczące funkcjonowania swoich obywateli bez konieczności uzyskiwania prawnego nakazu. Każdy krok obywatela USA jest podatny na monitorowanie i inwigilację – niezależnie od tego, czy chodzi o prywatne spotkania, czy historię przeglądania Internetu.
Budzi to bardzo uzasadnione obawy względem prywatności, nie tylko na poziomie samego Anthropic, ale także w samym Kongresie USA.
Anthropic twierdzi, że taki sposób przetwarzania danych szkodzi podstawowym wolnościom jednostki. To jednak nie koniec. Pozyskanie tych pojedynczych danych jest naruszeniem prywatności, ale w nowej rzeczywistości przeradza się w coś znacznie gorszego. AI może te dane uzbroić, zebrać je w kompleksowy obraz życia profilowanej osoby. To realnie piszący się scenariusz rodem z Black Mirror.
Anthropic nie chce także, by jej AI było wykorzystywane jako broń autonomiczna. Uważa, że uzbrojone autonomiczne AI jest zagrożeniem nie tylko dla wrogów, ale także dla cywili i osób, które będą się nim posługiwać. Anthropic apeluje o rozwagę i współpracę w zakresie tworzenia niezawodnych systemów. 
2 godziny temu
5






English (US) ·
Polish (PL) ·