U potezu koji je izazvao šokove u tech i ljudskim pravima zajednicama, Google je službeno uklonio svoju dugogodišnju zabranu korištenja umjetne inteligencije (AI) za oružje i sustave nadzora. Ovo značajno poništenje politike, objavljeno ovog tjedna, označava odstupanje od etičkih smjernica koje je tvrtka nekoć zagovarala i postavlja duboka pitanja o budućnosti razvoja AI-a i njegovom potencijalnom utjecaju na globalnu sigurnost i ljudska prava.
Povijesni kontekst: Od projekta Maven do promjene politike
Googleovi izvorni principi AI-a, uspostavljeni 2018. godine, bili su odgovor na intenzivne unutarnje i vanjske kritike zbog njegovog sudjelovanja u projektu Maven, inicijativi Ministarstva obrane SAD-a koja je koristila AI za analizu snimaka dronova u borbenim operacijama. Principi su eksplicitno navodili da Google neće dizajnirati ili koristiti AI za upotrebu u oružju, tehnologijama koje uzrokuju štetu, sustavima nadzora koji krše međunarodne norme ili bilo kojim aplikacijama koje su u suprotnosti s općeprihvaćenim načelima međunarodnog prava i ljudskih prava.
Međutim, novi principi, objavljeni ovog tjedna, uklonili su ove specifične zabrane. Umjesto toga, Google sada naglašava širu obvezu “ublažavanja nenamjernih ili štetnih ishoda” i usklađivanja s “općeprihvaćenim načelima međunarodnog prava i ljudskih prava”. Ovaj pomak naišao je na skepticizam i zabrinutost bivših zaposlenika i stručnjaka iz industrije.
Utjecaj na industriju: Novi standard za etiku AI-a?
Uklanjanje ovih jasnih etičkih granica moglo bi imati dalekosežne implikacije za tech industriju. Tracy Pizzo Frey, koja je provela pet godina provodeći Googleove izvorne principe AI-a kao viša direktorica za upravljanje proizvodima, angažmane i odgovornu AI u Google Cloudu, izrazila je duboku zabrinutost zbog promjene.
“Posljednje uporište je nestalo,” napisala je Frey u postu na BlueSkyju. “Nema više ograničenja. Google je stvarno bio sam u ovoj razini jasnoće o svojim obvezama za ono što će izgraditi.”
Frey, koja sada radi kao savjetnica za etiku AI-a, naglasila je važnost jasnih etičkih granica u izgradnji pouzdanih AI sustava. “Nalazimo se u stanju u kojem nema puno povjerenja u velike tech kompanije, i svaki potez koji čak i izgleda kao uklanjanje ograda stvara još više nepovjerenja,” rekla je za VentureBeat.
Izvorni principi postavili su presedan za korporativnu samoregulaciju u razvoju AI-a, s mnogim poduzećima koja su tražila smjernice od Googlea. Novi, dvosmisleniji principi mogli bi signalizirati širi trend u industriji, gdje pritisak za brzom inovacijom može nadjačati etička razmatranja.
Etička dilema: Balans između inovacije i odgovornosti
Vrijeme ove promjene politike posebno je osjetljivo, budući da se sposobnosti AI-a nastavljaju razvijati neviđenom brzinom. Potencijal tehnologije da transformira različite sektore, od zdravstva do obrane, ogroman je, ali su i rizici. Kritičari tvrde da uklanjanje specifičnih zabrana ostavlja previše prostora za tumačenje i moglo bi dovesti do razvoja AI aplikacija sa značajnim etičkim i humanitarnim posljedicama.
Margaret Mitchell, bivša suvoditeljica Googleovog tima za etiku AI-a, rekla je za Bloomberg da uklanjanje klauzule o ‘šteti’ može sugerirati da će tvrtka sada raditi na “primjeni tehnologije koja može izravno ubiti ljude.”
Implikacije ovog pomaka nisu ograničene samo na Google. Odluka tech giganta mogla bi potaknuti druge tvrtke da olabave svoje etičke standarde, potencijalno dovodeći do utrke do dna u razvoju AI-a. To je posebno zabrinjavajuće s obzirom na rastuće vojne primjene AI-a, što dokazuju tekući sukobi u Ukrajini i na Bliskom istoku.
Poziv na regulaciju: Potreba za obvezujućim zakonima
Organizacije za ljudska prava brzo su osudile Googleovu odluku. Matt Mahmoudi, istraživač i savjetnik za umjetnu inteligenciju i ljudska prava u Amnesty Internationalu, izjavio je: “Šteta je što je Google odlučio postaviti ovaj opasni presedan, nakon godina priznavanja da njihov AI program ne bi trebao biti korišten na načine koji bi mogli doprinijeti kršenju ljudskih prava.”
Mahmoudi je istaknuo potencijal AI tehnologija da potaknu masovni nadzor i smrtonosne autonomne sustave oružja, što bi moglo dovesti do raširenih kršenja ljudskih prava. “Googleova odluka da poništi zabranu AI oružja omogućuje tvrtci da prodaje proizvode koji pokreću tehnologije uključujući masovni nadzor, dronove razvijene za poluautomatske udare i softver za generiranje ciljeva koji je dizajniran da ubrza odluku o ubijanju,” rekao je.
Anna Bacciarelli, viša istraživačica AI-a u Human Rights Watchu, ponovila je ove zabrinutosti, napominjući da jednostrana odluka Googlea naglašava potrebu za obvezujućim regulativama. “Za globalnog lidera u industriji da napusti crvene linije koje je sam sebi postavio signalizira zabrinjavajući pomak, u vrijeme kada nam je odgovorno vodstvo u AI-u potrebnije nego ikad,” rekla je.
Put naprijed
Dok se tech industrija bori s etičkim implikacijama AI-a, Googleova promjena politike služi kao oštar podsjetnik na delikatnu ravnotežu između inovacije i odgovornosti. Odluka tvrtke da ukloni zabranu AI-a za oružje i sustave nadzora ne samo da je pokrenula etička pitanja, već je i naglasila hitnu potrebu za čvrstim, obvezujućim regulativama za upravljanje razvojem i primjenom AI tehnologija.
Nadolazeći mjeseci bit će ključni u određivanju da li ovaj pomak predstavlja novi industrijski standard ili opomenu o rizicima davanja prednosti profitima nad etičkim razmatranjima. Svijet promatra, i ulozi ne mogu biti veći.
vicevi za raju:
“Organizacije za ljudska prava” Amnesty International i Human Rights Watch osuđuju Gugl…
Gugl osnovali Sergej Brin i Leri Pejdž
Emnesti Internejnšl, osnovao Piter Benenson alias Piter Džejms Henri Solomon
Hjumn Rajts Voć, osnovali Robert Bernštajn, Arijeh Najer i Džeri Lejber
šta je zajedničko svima ovim likovima?
Brin, Pejdž, Benenson (Solomon), Bernštajn, Najer i Lejber- svi su jevreji, ma ko bi to reko
—-
Emnesti Internajnšl financiraju, Fondacija Rokefefeler, Fondacija Ford, jevropska komisija, američki stejt dipartment
Hjumn Rajts Voć financira Fondacija Otvoreno društvo dede Soroša
ДеепСеек и Квен нису једини које Кинези имају.
• Моонсхот – Кими 1.5
• СтепФун – Степ Р-мини
• Баицхуан – М1 Превиев
• Зхипу – ГЛМ Зеро Превиев
• Битеданце – Доубао 1.5 Про
• МиниМак – МиниМак Тект-01
• Тенцент – Хуниуан Ларге
• Баиду – Ерние 4.0 Турбо
• Ии АИ – ИиЛигхтнинг.
Сваки од представљених модела (9 на листи + ДеепСеек и Квен) је већ јачи или упоредив са ГПТ-4о, тј. Постоји 11 напредних кинеских модела, али светска заједница познаје само два.
Очекујте још вести од Кинеза и панику од Блумберга. Тек почиње, битка је у пуном јеку!
Ако Кинези могу да раде чуда упркос недостатку рачунарске снаге, шта можемо очекивати од њих за пар година?
Koja etika?! Da ima etike s umjetnom inteligencijom se niti ne bi počelo. AI je kreirana sa svrhom da nas porobi i da služi elitama u svojim mračnim ciljevima. Ovo nas upozorava da ćemo Terminatora gledati u budućnosti umjesto na filmu u realnom životu.
Očekivano.
Darko 7 ima naj bolji komentar ,na sve ovo.I ja to mislim,i slažem se sa ,tim.
Orwell: 1984
Terminator 1: 1984
Vjerojatno nije slučajno ista godina.
“Potencijal tehnologije da transformira različite sektore, od zdravstva do obrane, ogroman je, ali su i rizici.”
Obzirom da sam uvjeren da je AI u službi Bogova, a Bogovi nemaju interesa da zadrže toliki broj ljudi na Zemlji, upotreba AI u medicini je najblaže rečeno kontroverzna iz dva razloga,
Nadalje, koja je svrha unapređenja tehnologija dijagnostike i “liječenja” a istodobno razvijati ubitačnija oružja !?
Sve je očitije da ljudi gube kontrolu nad vlastitom sudbinom i životom…
takvo AI oružje če napraviti. To je samo pitanje vremena. Za diktaturu elita je to vrlo jeftino. Mašine ništa ne misle i urade sve bez da pitaju.
Smjesta zaustaviti.
Ako je to sad dostupna informacija onda je Google vec odavno napustio “etiku” i oruzje je vec u visokoj fazi testiranja.