calendar

Utorak 22. Jul, 2025

aktuelno ikonica Aktuelno
Peja se prvi put javno obratio Eni brutalnim riječima: “Nemojte birati strane …” (FOTO) VANREDNO OGLAŠAVANJE SAŠE MIRKOVIĆA IZ ZAGREBA! Najavio masivno zapošljavanje, od sutra počinje potpuna dominacija! Zanimljiva scena u Singapuru: U kockastom dresu Hrvatske navijao za Srbiju! BRATSTVO I JEDINSTVO!   OVA ZAVODNICA IZ RIJALITIJA JE PROVELA NOĆ KOD GASTOZA?! Zbog ovoga detalja svi misle da je cijelo veče bila u njegovom stanu! (FOTO) BORA SANTANA OTKRIO ISTINU O ENI ČOLIĆ: “Razočarala me je!” Ovi horoskopski znakovi uvijek iskreno žele pomoći Milica Veličković se oglasila nakon što je Terzi uskratila susret sa kćerkom Barbarom: “Nemoj da budeš kao oni drugi!” SAŠA MIRKOVIĆ HITNO PREKINUO ODMOR I UPUTIO SE U HRVATSKU: „Pravac Zagreb i potpisivanje ugovora sa novim članovima Hype televizije!“ Filip Car najavio iduću sezonu rijalitija: Jedva čekam da … Bolest uzela maha: Brus Vilis više ne može da govori i hoda Emir Lapsus najavio novu pjesmu: Uskoro stiže “Balkanska duša” JOŠ SAMO 300 ULAZNICA U PRODAJI! Ostalo je još jako malo do SPEKTAKLA ANE NIKOLIĆ U BANJA LUCI: „Nemojte poslije – da li ima karata?“ Anita Stanojlović otkrila nepoznate detalje o bivšem! Svi čekaju reakciju Anđela Rankovića! Odakle joj smjelost: Žest*k OBRAČUN u programu UŽIVO, Sofija Janićijević se uključila da demolira Anđelu, pa dobila povratnu SITA AHMIĆ DOŠLA DA SE OBRAČUNA SA LJUDIMA NA PINKU?! Nakon što su joj PRIJETILI – Anelina sestra pravi još veći haos? SOFI PLAČE ZBOG MATEJE! „On je uvijek kontraš“

Iz OpenAI-a pozvali na regulaciju kako bi spriječili umjetnu inteligenciju da uništi čovječanstvo

Objavio: RHT
24/05/2023 9:22 AM

Čelnici OpenAI pozivaju na regulaciju kako bi se spriječilo da umjetna inteligencija uništi čovječanstvo. Tim iza ChatGPT-a kaže da je potreban ekvivalent IAEA za zaštitu od rizika ‘superinteligentnih’ AI-ova.

Foto: Shutterstock

Šefovi OpenAI-ja, koji razvija ChatGPT, pozvali su na regulaciju “superinteligentnih” AI-jeva, tvrdeći da je potreban ekvivalent Međunarodnoj agenciji za atomsku energiju (IAEA) kako bi se čovječanstvo zaštitilo od rizika slučajnog stvaranja nečega s moći da ga uništi.

Provjeriti sisteme

U kratkoj bilješci objavljenoj na web stranici komanije, suosnivači Greg Brockman i Ilya Sutskever te izvršni direktor Sam Altman pozivaju međunarodnog regulatora da počne raditi na tome kako “provjeravati sisteme, zahtijevati revizije, testirati usklađenost sa sigurnosnim standardima i postaviti ograničenja na stupnjeve implementacije i razine sigurnosti”, kako bi se smanjio “egzistencijalni rizik” koji bi takvi sistemi mogli predstavljati.

“Moguće je da će unutar sljedećih 10 godina sistemiumjetne inteligencije premašiti razinu stručnih vještina u većini domena i obavljati onoliko produktivnih aktivnosti koliko i jedna od najvećih današnjih korporacija. U pogledu potencijalnih prednosti i nedostataka, superinteligencija će biti moćnija od drugih tehnologija s kojima se čovječanstvo moralo boriti u prošlosti. Možemo imati dramatično prosperitetniju budućnost; ali moramo upravljati rizikom da bismo stigli tamo. S obzirom na mogućnost egzistencijalnog rizika, ne možemo samo reagirati”, upozorili su.

Kratkoročno gledano, trojac poziva na “određeni stepen koordinacije” među kompanijama koje rade na najnovijim istraživanjima umjetne inteligencije, kako bi se osiguralo da se razvoj sve moćnijih modela glatko integrira u društvo, dok je sigurnost prioritet. Ta bi koordinacija mogla doći kroz projekt koji bi vodila vlada, na primjer, ili kroz kolektivni ugovor za ograničavanje rasta sposobnosti umjetne inteligencije.

Potencijalni rizici

Istraživači već desetljećima upozoravaju na potencijalne rizike superinteligencije, ali kako je razvoj umjetne inteligencije ubrzan, ti su rizici postali konkretniji. Američki Centar za sigurnost umjetne inteligencije (CAIS), koji radi na “smanjenju rizika na društvenoj razini od umjetne inteligencije”, opisuje osam kategorija “katastrofalnih” i “egzistencijalnih” rizika koje razvoj umjetne inteligencije može predstavljati.

Dok se neki brinu da će moćna umjetna inteligencija potpuno uništiti čovječanstvo, slučajno ili namjerno, CAIS opisuje druge pogubnije štete. Svijet u kojem se sistemima umjetne inteligencije dobrovoljno predaje sve više rada mogao bi dovesti do toga da čovječanstvo “izgubi sposobnost samoupravljanja i postane potpuno ovisno o strojevima”, opisano kao “oslabljenost”; a mala grupa ljudi koja kontrolira moćne sustave mogla bi “učiniti AI centralizirajućom silom”, što bi dovelo do “zaključavanja vrijednosti”, vječnog kastinskog sustava između onih kojima se vlada i onih koji vladaju.

Čelnici OpenAI-ja kažu da ti rizici znače da bi “ljudi diljem svijeta trebali demokratski odlučiti o granicama i zadanim postavkama za AI sisteme”, ali priznaju da još ne znaju kako dizajnirati takav mehanizam. Međutim, kažu da je nastavak razvoja moćnih sistema vrijedan rizika.

Bolji svijet

“Vjerujemo da će to dovesti do mnogo boljeg svijeta od onoga što danas možemo zamisliti (već vidimo prve primjere toga u područjima kao što su obrazovanje, kreativni rad i osobna produktivnost)”, napisali su šefovi OpenaAI-ja.

Upozoravaju da bi također moglo biti opasno pauzirati razvoj.

„Budući da su prednosti tako ogromne, trošak izgradnje svake godine se smanjuje, broj sudionika koji ga grade ubrzano raste, a to je inherentno dio tehnološkog puta na kojem se nalazimo. Njegovo zaustavljanje zahtijevalo bi nešto poput globalnog režima nadzora, a čak ni za to nije zajamčeno da će funkcionirati. Dakle, moramo to ispraviti”, poručili su, a prenosi The Guardian.

Tagovi:

  • OpenAl
  • Ostavite komentar

    Obavezna polja su označena sa * Vaša adresa neće biti vidljiva drugim korisnicima.

    ZABRANJENO PREUZIMANJE BEZ NAVODJENJA IZVORA I AUTORA

    PRATITE NAS