DeepMind to brytyjsko-amerykańskie laboratorium badawcze zajmujące się sztuczną inteligencją i algorytmami uczenia maszynowego. Firma ostatecznie stała się częścią Google, obiecując, że nie będzie nadużywać badań nad sztuczną inteligencją do celów militarnych, ale obecnie wydaje się, że gigant Mountain View może mieć inne plany.
Około 200 pracowników DeepMind podpisało list wzywający firmę do rozwiązania umów z klientami wojskowymi. Według raportu Time list został wysłany do przełożonych Google na początku tego roku. Kierownictwo nie odniosło się jednak do obaw pracowników dotyczących potencjalnego niewłaściwego wykorzystania sztucznej inteligencji do szkodliwych zastosowań lub związanych z działaniami wojennymi.
Jak zauważa Time, list podpisało około pięciu procent pracowników DeepMind, co stanowi niewielką część zespołu pracującego w laboratorium badawczym nad najbardziej zaawansowanymi projektami Google dotyczącymi AI. Mimo że stanowią mniejszość, pracownicy Google wyrażają rosnące obawy w związku z wojskowym wykorzystaniem inteligentnych algorytmów – obszarem, który powinien być wyłączony z działalności firmy zgodnie z zasadami rozwoju sztucznej inteligencji Google.
Google łamie własne zasady?
Zasady Google dotyczące sztucznej inteligencji podkreślają optymizm co do potencjału technologii, jednocześnie wyraźnie stwierdzając, że firma nie będzie wdrażać niektórych zastosowań, jeśli technologia okaże się szkodliwa. Zasady zabraniają opracowywania broni lub innych technologii mających bezpośrednio lub pośrednio powodować obrażenia, a także rozwiązań AI do zastosowań inwigilacyjnych, które naruszają traktaty międzynarodowe.
List pracowników DeepMind z 16 maja wyraża obawy związane z niedawnym zaangażowaniem Google w organizacje wojskowe. Chociaż list nie odnosi się konkretnie do aktualnej geopolityki ani żadnego konkretnego konfliktu, podkreśla obawy związane z doniesieniami o kontaktach biznesowych Google z Izraelską Obroną Wojskową w ramach współpracy znanej jako Projekt Nimbus.
Według doniesień w ramach projektu Nimbus Google zapewnia izraelskiej armii możliwości przetwarzania w chmurze i usługi sztucznej inteligencji. W piśmie odniesiono się również do zarzutów, że Tel Awiw wykorzystuje sztuczną inteligencję do masowej inwigilacji w celu wybierania celów w trwających bombardowaniach w Gazie. W piśmie stwierdza się: „Jakiekolwiek zaangażowanie w produkcję wojskową i broń wpływa na naszą pozycję liderów w dziedzinie etycznej i odpowiedzialnej sztucznej inteligencji oraz jest sprzeczne z naszą misją i określonymi zasadami sztucznej inteligencji”.
Trzy miesiące po wysłaniu listu źródła zaznajomione ze sprawą poinformowały Time, że Google nie zrobił nic w odpowiedzi. Oficjalnie firma oświadczyła, że Projekt Nimbus nie ma związku z zadaniami wojskowymi, bronią ani służbami wywiadowczymi. Jednak źródło powiedziało dziennikarzom, że oświadczenie Google jest „tak specyficznie nieprecyzyjne, że trudno tak naprawdę określić jego znaczenie”.