calendar

Petak 27. Jun, 2025

aktuelno ikonica Aktuelno
Prvi znak demencije može se primijetiti u prodavnici: Ako vam se ovo događa, obratite se ljekaru Milovan istakao da mu je Aleksandra rame za plakanje, pa Gastoz dao svoj sud: SMIJEŠNI STE, DEMANTUJETE SAMI SEBE! Gastozov prijatelj žest*ko opleo po Anđeli, pa mu kum Ivana Marinkovića žest*ko odbrusio i stao na stranu Đuričićeve! ANJA I BAKA U RATU KOJI TRESE INTERNET! Blagojevićeva šokirala NOVIM OGLAŠAVANJEM, jutjuber neće moći da vjeruje! (FOTO) EKSKLUZIVNO ZA HYPE! Marija Malivuk RASKRINKAVA: „Gastozu je naređeno da bude sa Anđelom! Pavle je samo iskoristio!“ (VIDEO) NIJE ME PREBOLJELA! Stefani uvjerena da je Matorina ŽIVA R*NA, pa prognozirala krah njene veze sa Draganom: Tomićeva riješila da joj odbrusi Psiholog Čedomir Novaković: Muškarci ne plaču dok ne nestanu Zorannah izjavom izazvala bij*s javnosti: Dosadan evropski život „KLOŠ*RKO, ŠLJ*M KAO TI NIKAD NE BI BIO SA MOJIM SINOM“ Kačavenda zaurlala na Enu Čolić Pavle Jovanović nema amneziju kao Anđela, od ovih informacija Gastoz će dobiti mučninu! Slađa promijenila sve boje nakon što je Terza uputio komplimente na Sofijin račun, pa oplela po suparnici! TU JE KRAJ SVAKE PRIČE: Gruja dao sud o ha*su Anđele i Gastoza, pa progovorio o njenim l*žima o Pavlu Jovanoviću! Marko uključio centrifugu kako bi oprao Sanju i njeno bah*to ponašanje, Sofija ga totalno raskrinkala: Čula sam da se ohladio od nje! Denial Ahmetović promovisao novu pjesmu “Amore mio”: Ljetni ritam, latino senzualnost i zarazan refren Munja šokiran jer je Dragana pokazala da nema ni gram poštovanja prema svojoj porodici, ona dokazala da nema ni gram empatije: MOJ IZBOR JE SAMO MOJA STVAR! Biljana Vujović prokomentarisala žest*ku raspravu Luke i Aneli, evo da li će nakon svega primiti Ahmićevu u svoj dom

Iz OpenAI-a pozvali na regulaciju kako bi spriječili umjetnu inteligenciju da uništi čovječanstvo

Objavio: RHT
24/05/2023 9:22 AM

Čelnici OpenAI pozivaju na regulaciju kako bi se spriječilo da umjetna inteligencija uništi čovječanstvo. Tim iza ChatGPT-a kaže da je potreban ekvivalent IAEA za zaštitu od rizika ‘superinteligentnih’ AI-ova.

Foto: Shutterstock

Šefovi OpenAI-ja, koji razvija ChatGPT, pozvali su na regulaciju “superinteligentnih” AI-jeva, tvrdeći da je potreban ekvivalent Međunarodnoj agenciji za atomsku energiju (IAEA) kako bi se čovječanstvo zaštitilo od rizika slučajnog stvaranja nečega s moći da ga uništi.

Provjeriti sisteme

U kratkoj bilješci objavljenoj na web stranici komanije, suosnivači Greg Brockman i Ilya Sutskever te izvršni direktor Sam Altman pozivaju međunarodnog regulatora da počne raditi na tome kako “provjeravati sisteme, zahtijevati revizije, testirati usklađenost sa sigurnosnim standardima i postaviti ograničenja na stupnjeve implementacije i razine sigurnosti”, kako bi se smanjio “egzistencijalni rizik” koji bi takvi sistemi mogli predstavljati.

“Moguće je da će unutar sljedećih 10 godina sistemiumjetne inteligencije premašiti razinu stručnih vještina u većini domena i obavljati onoliko produktivnih aktivnosti koliko i jedna od najvećih današnjih korporacija. U pogledu potencijalnih prednosti i nedostataka, superinteligencija će biti moćnija od drugih tehnologija s kojima se čovječanstvo moralo boriti u prošlosti. Možemo imati dramatično prosperitetniju budućnost; ali moramo upravljati rizikom da bismo stigli tamo. S obzirom na mogućnost egzistencijalnog rizika, ne možemo samo reagirati”, upozorili su.

Kratkoročno gledano, trojac poziva na “određeni stepen koordinacije” među kompanijama koje rade na najnovijim istraživanjima umjetne inteligencije, kako bi se osiguralo da se razvoj sve moćnijih modela glatko integrira u društvo, dok je sigurnost prioritet. Ta bi koordinacija mogla doći kroz projekt koji bi vodila vlada, na primjer, ili kroz kolektivni ugovor za ograničavanje rasta sposobnosti umjetne inteligencije.

Potencijalni rizici

Istraživači već desetljećima upozoravaju na potencijalne rizike superinteligencije, ali kako je razvoj umjetne inteligencije ubrzan, ti su rizici postali konkretniji. Američki Centar za sigurnost umjetne inteligencije (CAIS), koji radi na “smanjenju rizika na društvenoj razini od umjetne inteligencije”, opisuje osam kategorija “katastrofalnih” i “egzistencijalnih” rizika koje razvoj umjetne inteligencije može predstavljati.

Dok se neki brinu da će moćna umjetna inteligencija potpuno uništiti čovječanstvo, slučajno ili namjerno, CAIS opisuje druge pogubnije štete. Svijet u kojem se sistemima umjetne inteligencije dobrovoljno predaje sve više rada mogao bi dovesti do toga da čovječanstvo “izgubi sposobnost samoupravljanja i postane potpuno ovisno o strojevima”, opisano kao “oslabljenost”; a mala grupa ljudi koja kontrolira moćne sustave mogla bi “učiniti AI centralizirajućom silom”, što bi dovelo do “zaključavanja vrijednosti”, vječnog kastinskog sustava između onih kojima se vlada i onih koji vladaju.

Čelnici OpenAI-ja kažu da ti rizici znače da bi “ljudi diljem svijeta trebali demokratski odlučiti o granicama i zadanim postavkama za AI sisteme”, ali priznaju da još ne znaju kako dizajnirati takav mehanizam. Međutim, kažu da je nastavak razvoja moćnih sistema vrijedan rizika.

Bolji svijet

“Vjerujemo da će to dovesti do mnogo boljeg svijeta od onoga što danas možemo zamisliti (već vidimo prve primjere toga u područjima kao što su obrazovanje, kreativni rad i osobna produktivnost)”, napisali su šefovi OpenaAI-ja.

Upozoravaju da bi također moglo biti opasno pauzirati razvoj.

„Budući da su prednosti tako ogromne, trošak izgradnje svake godine se smanjuje, broj sudionika koji ga grade ubrzano raste, a to je inherentno dio tehnološkog puta na kojem se nalazimo. Njegovo zaustavljanje zahtijevalo bi nešto poput globalnog režima nadzora, a čak ni za to nije zajamčeno da će funkcionirati. Dakle, moramo to ispraviti”, poručili su, a prenosi The Guardian.

Tagovi:

  • OpenAl
  • Ostavite komentar

    Obavezna polja su označena sa * Vaša adresa neće biti vidljiva drugim korisnicima.

    ZABRANJENO PREUZIMANJE BEZ NAVODJENJA IZVORA I AUTORA

    PRATITE NAS