Transformacija Googleove korporativne etike: Od "Ne čini zlo" do vojne primjene AI-ja

Googleova transformacija od poznate krilatice "Ne čini zlo" iz davnih godina do današnje spremnosti na razmatranje primjene umjetne inteligencije u vojnim i nadzornim sustavima pokazuje trendove u odnosu Silicijske doline prema vojno-industrijskom kompleksu

Ivan Podnar srijeda, 5. veljače 2025. u 13:31

Prema pisanju Bloomberga i drugih izvora, Google je uklonio svoje dugogodišnje obećanje o nekorištenju umjetne inteligencije u vojne i nadzorne svrhe, što predstavlja značajan zaokret u politici tvrtke. Ova promjena označava odmak od AI načela iz 2018. godine, kada se tvrtka izričito obvezala izbjegavati primjene vezane uz oružje ili tehnologije koje prikupljaju podatke za nadzor koji krši međunarodne norme.

"Globalno natjecanje za AI vodstvo"

Nova AI načela, koja su predstavili izvršni direktor Google DeepMinda Demis Hassabis i viši potpredsjednik James Manyika, temelje se na tri osnovna stupa: "inovativnom razvoju, odgovornoj primjeni i implementaciji te napretku kroz suradnju". Tehnološki div sada zagovara suradnju između tvrtki, vlada i organizacija koje dijele slične vrijednosti kako bi stvorili umjetnu inteligenciju koja "štiti ljude, potiče globalni rast i podupire nacionalnu sigurnost".

Tenzija među dijelom zaposlenika

Google je ovu reviziju etičke politike umjetne inteligencije proveo u vrijeme kada aktivno traži savezne ugovore za svoje AI tehnologije. To je dovelo do povećanih tenzija među dijelom zaposlenika, podsjećajući na kontroverze oko Projekta Maven iz 2018. godine, koji je izazvao prosvjede i ostavke zaposlenika.