200 milionów dolarów za dużą umowę, tak po prostu odrzucają? Czy ta firma AI oszalała?
Sytuacja wygląda tak: amerykańskie wojsko chciało uznać Anthropic (czyli firmę, która stworzyła Claude'a) za 'ryzyko w łańcuchu dostaw', ale sędzia od razu to zablokował, dając im siedem dni na przemyślenie.
Co było iskrą zapalną? Anthropic za wszelką cenę nie chce znieść swoich ograniczeń - nie pozwalają amerykańskiemu wojsku używać AI do masowego monitorowania ani nie pozwalają AI uczestniczyć w śmiertelnych, autonomicznych działaniach bojowych.
Mówiąc wprost, ta firma woli stracić kontrakty, niż pozwolić, by ich technologia stała się narzędziem zabijania.
Mówiąc szczerze, teraz firmy AI walczą o współpracę z wojskiem, a działania Anthropic sprawiają, że ludzie zaczynają na nie spoglądać z uznaniem.
Niezależnie od tego, jak silna jest technologia, muszą istnieć pewne granice. Można dobrze zarobić, ale jak historia to zapisze, to już nie jest takie pewne.
Tak czy owak, przez te siedem dni obie strony będą musiały jeszcze trochę się wykłócać, a my zajmiemy się obserwowaniem.
#AI #Anthropic #五角大楼 #科技伦理 #Claude