Google napušta zabranu AI oružja: Opasni pomak u etici tehnologije?

10 komentara

U potezu koji je izazvao šokove u tech i ljudskim pravima zajednicama, Google je službeno uklonio svoju dugogodišnju zabranu korištenja umjetne inteligencije (AI) za oružje i sustave nadzora. Ovo značajno poništenje politike, objavljeno ovog tjedna, označava odstupanje od etičkih smjernica koje je tvrtka nekoć zagovarala i postavlja duboka pitanja o budućnosti razvoja AI-a i njegovom potencijalnom utjecaju na globalnu sigurnost i ljudska prava.

Povijesni kontekst: Od projekta Maven do promjene politike

Googleovi izvorni principi AI-a, uspostavljeni 2018. godine, bili su odgovor na intenzivne unutarnje i vanjske kritike zbog njegovog sudjelovanja u projektu Maven, inicijativi Ministarstva obrane SAD-a koja je koristila AI za analizu snimaka dronova u borbenim operacijama. Principi su eksplicitno navodili da Google neće dizajnirati ili koristiti AI za upotrebu u oružju, tehnologijama koje uzrokuju štetu, sustavima nadzora koji krše međunarodne norme ili bilo kojim aplikacijama koje su u suprotnosti s općeprihvaćenim načelima međunarodnog prava i ljudskih prava.

Međutim, novi principi, objavljeni ovog tjedna, uklonili su ove specifične zabrane. Umjesto toga, Google sada naglašava širu obvezu “ublažavanja nenamjernih ili štetnih ishoda” i usklađivanja s “općeprihvaćenim načelima međunarodnog prava i ljudskih prava”. Ovaj pomak naišao je na skepticizam i zabrinutost bivših zaposlenika i stručnjaka iz industrije.

Utjecaj na industriju: Novi standard za etiku AI-a?

Uklanjanje ovih jasnih etičkih granica moglo bi imati dalekosežne implikacije za tech industriju. Tracy Pizzo Frey, koja je provela pet godina provodeći Googleove izvorne principe AI-a kao viša direktorica za upravljanje proizvodima, angažmane i odgovornu AI u Google Cloudu, izrazila je duboku zabrinutost zbog promjene.

“Posljednje uporište je nestalo,” napisala je Frey u postu na BlueSkyju. “Nema više ograničenja. Google je stvarno bio sam u ovoj razini jasnoće o svojim obvezama za ono što će izgraditi.”

Frey, koja sada radi kao savjetnica za etiku AI-a, naglasila je važnost jasnih etičkih granica u izgradnji pouzdanih AI sustava. “Nalazimo se u stanju u kojem nema puno povjerenja u velike tech kompanije, i svaki potez koji čak i izgleda kao uklanjanje ograda stvara još više nepovjerenja,” rekla je za VentureBeat.

Izvorni principi postavili su presedan za korporativnu samoregulaciju u razvoju AI-a, s mnogim poduzećima koja su tražila smjernice od Googlea. Novi, dvosmisleniji principi mogli bi signalizirati širi trend u industriji, gdje pritisak za brzom inovacijom može nadjačati etička razmatranja.

Etička dilema: Balans između inovacije i odgovornosti

Vrijeme ove promjene politike posebno je osjetljivo, budući da se sposobnosti AI-a nastavljaju razvijati neviđenom brzinom. Potencijal tehnologije da transformira različite sektore, od zdravstva do obrane, ogroman je, ali su i rizici. Kritičari tvrde da uklanjanje specifičnih zabrana ostavlja previše prostora za tumačenje i moglo bi dovesti do razvoja AI aplikacija sa značajnim etičkim i humanitarnim posljedicama.

Margaret Mitchell, bivša suvoditeljica Googleovog tima za etiku AI-a, rekla je za Bloomberg da uklanjanje klauzule o ‘šteti’ može sugerirati da će tvrtka sada raditi na “primjeni tehnologije koja može izravno ubiti ljude.”

Implikacije ovog pomaka nisu ograničene samo na Google. Odluka tech giganta mogla bi potaknuti druge tvrtke da olabave svoje etičke standarde, potencijalno dovodeći do utrke do dna u razvoju AI-a. To je posebno zabrinjavajuće s obzirom na rastuće vojne primjene AI-a, što dokazuju tekući sukobi u Ukrajini i na Bliskom istoku.

Poziv na regulaciju: Potreba za obvezujućim zakonima

Organizacije za ljudska prava brzo su osudile Googleovu odluku. Matt Mahmoudi, istraživač i savjetnik za umjetnu inteligenciju i ljudska prava u Amnesty Internationalu, izjavio je: “Šteta je što je Google odlučio postaviti ovaj opasni presedan, nakon godina priznavanja da njihov AI program ne bi trebao biti korišten na načine koji bi mogli doprinijeti kršenju ljudskih prava.”

Mahmoudi je istaknuo potencijal AI tehnologija da potaknu masovni nadzor i smrtonosne autonomne sustave oružja, što bi moglo dovesti do raširenih kršenja ljudskih prava. “Googleova odluka da poništi zabranu AI oružja omogućuje tvrtci da prodaje proizvode koji pokreću tehnologije uključujući masovni nadzor, dronove razvijene za poluautomatske udare i softver za generiranje ciljeva koji je dizajniran da ubrza odluku o ubijanju,” rekao je.

Anna Bacciarelli, viša istraživačica AI-a u Human Rights Watchu, ponovila je ove zabrinutosti, napominjući da jednostrana odluka Googlea naglašava potrebu za obvezujućim regulativama. “Za globalnog lidera u industriji da napusti crvene linije koje je sam sebi postavio signalizira zabrinjavajući pomak, u vrijeme kada nam je odgovorno vodstvo u AI-u potrebnije nego ikad,” rekla je.

Put naprijed

Dok se tech industrija bori s etičkim implikacijama AI-a, Googleova promjena politike služi kao oštar podsjetnik na delikatnu ravnotežu između inovacije i odgovornosti. Odluka tvrtke da ukloni zabranu AI-a za oružje i sustave nadzora ne samo da je pokrenula etička pitanja, već je i naglasila hitnu potrebu za čvrstim, obvezujućim regulativama za upravljanje razvojem i primjenom AI tehnologija.

Nadolazeći mjeseci bit će ključni u određivanju da li ovaj pomak predstavlja novi industrijski standard ili opomenu o rizicima davanja prednosti profitima nad etičkim razmatranjima. Svijet promatra, i ulozi ne mogu biti veći.

AI oružjeEtička pitanjaGoogleljudska pravaregulacija
Pretplatiti se
Obavijesti o
10 Komentari
Najstariji
Najnoviji Najviše komentiran
Inline povratne informacije
Pogledaj sve komentare
pliz fil aut tis fild
1 mjesec prije

vicevi za raju:

“Organizacije za ljudska prava” Amnesty International i Human Rights Watch osuđuju Gugl…

Gugl osnovali Sergej Brin i Leri Pejdž

Emnesti Internejnšl, osnovao Piter Benenson alias Piter Džejms Henri Solomon

Hjumn Rajts Voć, osnovali Robert Bernštajn, Arijeh Najer i Džeri Lejber

šta je zajedničko svima ovim likovima?

Brin, Pejdž, Benenson (Solomon), Bernštajn, Najer i Lejber- svi su jevreji, ma ko bi to reko

—-

Emnesti Internajnšl financiraju, Fondacija Rokefefeler, Fondacija Ford, jevropska komisija, američki stejt dipartment

Hjumn Rajts Voć financira Fondacija Otvoreno društvo dede Soroša

tihobl
1 mjesec prije

ДеепСеек и Квен нису једини које Кинези имају.

• Моонсхот – Кими 1.5
• СтепФун – Степ Р-мини
• Баицхуан – М1 Превиев
• Зхипу – ГЛМ Зеро Превиев
• Битеданце – Доубао 1.5 Про
• МиниМак – МиниМак Тект-01
• Тенцент – Хуниуан Ларге
• Баиду – Ерние 4.0 Турбо
• Ии АИ – ИиЛигхтнинг.

Сваки од представљених модела (9 на листи + ДеепСеек и Квен) је већ јачи или упоредив са ГПТ-4о, тј. Постоји 11 напредних кинеских модела, али светска заједница познаје само два.

Очекујте још вести од Кинеза и панику од Блумберга. Тек почиње, битка је у пуном јеку!

Ако Кинези могу да раде чуда упркос недостатку рачунарске снаге, шта можемо очекивати од њих за пар година?

Darko 7
1 mjesec prije

Koja etika?! Da ima etike s umjetnom inteligencijom se niti ne bi počelo. AI je kreirana sa svrhom da nas porobi i da služi elitama u svojim mračnim ciljevima. Ovo nas upozorava da ćemo Terminatora gledati u budućnosti umjesto na filmu u realnom životu.

Max
1 mjesec prije

Očekivano.

Baba
1 mjesec prije

Darko 7 ima naj bolji komentar ,na sve ovo.I ja to mislim,i slažem se sa ,tim.

Biti-ili-ne-biti
1 mjesec prije

Orwell: 1984
Terminator 1: 1984

Vjerojatno nije slučajno ista godina.

nepoželjni
1 mjesec prije

“Potencijal tehnologije da transformira različite sektore, od zdravstva do obrane, ogroman je, ali su i rizici.” 

Obzirom da sam uvjeren da je AI u službi Bogova, a Bogovi nemaju interesa da zadrže toliki broj ljudi na Zemlji, upotreba AI u medicini je najblaže rečeno kontroverzna iz dva razloga,

  • zato što je produžavanje zdravlja i života ljudi u suprotnosti agende depopulacije,
  • i zato što AI može biti zloupotrijebljena tako da korisnicima medicinskih usluga umjesto pomoći, skraćuje život kroz primjenu medikamenata složenih samo za tu svrhu

Nadalje, koja je svrha unapređenja tehnologija dijagnostike i “liječenja” a istodobno razvijati ubitačnija oružja !?
Sve je očitije da ljudi gube kontrolu nad vlastitom sudbinom i životom…

aniki
1 mjesec prije

takvo AI oružje če napraviti. To je samo pitanje vremena. Za diktaturu elita je to vrlo jeftino. Mašine ništa ne misle i urade sve bez da pitaju.

Max
1 mjesec prije

Smjesta zaustaviti.

Samo U Prolazu
1 mjesec prije

Ako je to sad dostupna informacija onda je Google vec odavno napustio “etiku” i oruzje je vec u visokoj fazi testiranja.

© 2024 – Portal Logično

POVEZANE VIJESTI