By using this site, you agree to the Privacy Policy and Terms of Use.
Accept
Nedjelja, 07.12.2025
  • NAJNOVIJE
  • HOROSKOP
  • HYPE ŽENA
Search
Hype TV
  • NASLOVNA
  • VIJESTI
    • DRUŠTVO
    • POLITIKA
    • KULTURA
  • HYPE ZVEZDE
  • SHOWBIZ
  • JET SET
  • RIJALITI
  • SPORT
  • HRONIKA
Reading: Iz OpenAI-a pozvali na regulaciju kako bi spriječili umjetnu inteligenciju da uništi čovječanstvo
Font ResizerAa
Hype TVHype TV
  • NASLOVNA
  • VIJESTI
  • HYPE ZVEZDE
  • SHOWBIZ
  • JET SET
  • RIJALITI
  • SPORT
  • HRONIKA
Search
  • NASLOVNA
  • VIJESTI
    • DRUŠTVO
    • POLITIKA
    • KULTURA
  • HYPE ZVEZDE
  • SHOWBIZ
  • JET SET
  • RIJALITI
  • SPORT
  • HRONIKA
Follow US
© 2025 Hype TV

Home » Iz OpenAI-a pozvali na regulaciju kako bi spriječili umjetnu inteligenciju da uništi čovječanstvo

DRUŠTVO

Iz OpenAI-a pozvali na regulaciju kako bi spriječili umjetnu inteligenciju da uništi čovječanstvo

24.05.2023
DRUŠTVO
4 Min Read
Share

Čelnici OpenAI pozivaju na regulaciju kako bi se spriječilo da umjetna inteligencija uništi čovječanstvo. Tim iza ChatGPT-a kaže da je potreban ekvivalent IAEA za zaštitu od rizika ‘superinteligentnih’ AI-ova.

Foto: Shutterstock

Šefovi OpenAI-ja, koji razvija ChatGPT, pozvali su na regulaciju “superinteligentnih” AI-jeva, tvrdeći da je potreban ekvivalent Međunarodnoj agenciji za atomsku energiju (IAEA) kako bi se čovječanstvo zaštitilo od rizika slučajnog stvaranja nečega s moći da ga uništi.

Provjeriti sisteme

U kratkoj bilješci objavljenoj na web stranici komanije, suosnivači Greg Brockman i Ilya Sutskever te izvršni direktor Sam Altman pozivaju međunarodnog regulatora da počne raditi na tome kako “provjeravati sisteme, zahtijevati revizije, testirati usklađenost sa sigurnosnim standardima i postaviti ograničenja na stupnjeve implementacije i razine sigurnosti”, kako bi se smanjio “egzistencijalni rizik” koji bi takvi sistemi mogli predstavljati.

“Moguće je da će unutar sljedećih 10 godina sistemiumjetne inteligencije premašiti razinu stručnih vještina u većini domena i obavljati onoliko produktivnih aktivnosti koliko i jedna od najvećih današnjih korporacija. U pogledu potencijalnih prednosti i nedostataka, superinteligencija će biti moćnija od drugih tehnologija s kojima se čovječanstvo moralo boriti u prošlosti. Možemo imati dramatično prosperitetniju budućnost; ali moramo upravljati rizikom da bismo stigli tamo. S obzirom na mogućnost egzistencijalnog rizika, ne možemo samo reagirati”, upozorili su.

Kratkoročno gledano, trojac poziva na “određeni stepen koordinacije” među kompanijama koje rade na najnovijim istraživanjima umjetne inteligencije, kako bi se osiguralo da se razvoj sve moćnijih modela glatko integrira u društvo, dok je sigurnost prioritet. Ta bi koordinacija mogla doći kroz projekt koji bi vodila vlada, na primjer, ili kroz kolektivni ugovor za ograničavanje rasta sposobnosti umjetne inteligencije.

Potencijalni rizici

Istraživači već desetljećima upozoravaju na potencijalne rizike superinteligencije, ali kako je razvoj umjetne inteligencije ubrzan, ti su rizici postali konkretniji. Američki Centar za sigurnost umjetne inteligencije (CAIS), koji radi na “smanjenju rizika na društvenoj razini od umjetne inteligencije”, opisuje osam kategorija “katastrofalnih” i “egzistencijalnih” rizika koje razvoj umjetne inteligencije može predstavljati.

Dok se neki brinu da će moćna umjetna inteligencija potpuno uništiti čovječanstvo, slučajno ili namjerno, CAIS opisuje druge pogubnije štete. Svijet u kojem se sistemima umjetne inteligencije dobrovoljno predaje sve više rada mogao bi dovesti do toga da čovječanstvo “izgubi sposobnost samoupravljanja i postane potpuno ovisno o strojevima”, opisano kao “oslabljenost”; a mala grupa ljudi koja kontrolira moćne sustave mogla bi “učiniti AI centralizirajućom silom”, što bi dovelo do “zaključavanja vrijednosti”, vječnog kastinskog sustava između onih kojima se vlada i onih koji vladaju.

Čelnici OpenAI-ja kažu da ti rizici znače da bi “ljudi diljem svijeta trebali demokratski odlučiti o granicama i zadanim postavkama za AI sisteme”, ali priznaju da još ne znaju kako dizajnirati takav mehanizam. Međutim, kažu da je nastavak razvoja moćnih sistema vrijedan rizika.

Bolji svijet

“Vjerujemo da će to dovesti do mnogo boljeg svijeta od onoga što danas možemo zamisliti (već vidimo prve primjere toga u područjima kao što su obrazovanje, kreativni rad i osobna produktivnost)”, napisali su šefovi OpenaAI-ja.

Upozoravaju da bi također moglo biti opasno pauzirati razvoj.

„Budući da su prednosti tako ogromne, trošak izgradnje svake godine se smanjuje, broj sudionika koji ga grade ubrzano raste, a to je inherentno dio tehnološkog puta na kojem se nalazimo. Njegovo zaustavljanje zahtijevalo bi nešto poput globalnog režima nadzora, a čak ni za to nije zajamčeno da će funkcionirati. Dakle, moramo to ispraviti”, poručili su, a prenosi The Guardian.

TAGGED:OpenAl
Share This Article
Facebook Threads Copy Link
Previous Article VREMENSKA PROGNOZA Ponovo se vraćaju kiša, pljuskovi i gmrljavina
Next Article Nikolija otkrila zdravstveno stanju majke Vesne nakon operacije srca: ZA 10 DANA ĆE SE I TO DOGODITI
Nema komentara

Komentariši Poništi odgovor

Vaša email adresa neće biti objavljivana. Neophodna polja su označena sa *

Ne propustite

Kontrolno brojanje: Glasovi Branka Blanuše završili kod Karana!
DRUŠTVOISTAKNUTO

Kontrolno brojanje: Glasovi Branka Blanuše završili kod Karana!

1 Min Read
Sarajevo po ko zna koji put među 10 najzagađenijih gradova u svijetu!
DRUŠTVO

Sarajevo po ko zna koji put među 10 najzagađenijih gradova u svijetu!

2 Min Read
Performans u trolejbusu oduševio putnike!
DRUŠTVOVESTI

Performans u trolejbusu oduševio putnike! 140 godina javnog prevoza!

1 Min Read
DRUŠTVOISTAKNUTO

SAŠA MIRKOVIĆ OBJAVIO VIDEO MILORADA DODIKA! “Je l’ tad bio licemjeran ili je danas licemjeran?“

1 Min Read
Show More

ČITAJTE NAS I NA HYPE TV KANALIMA WHATSAPP, VIBER I TELEGRAM

Čitajte Hypetv.rs portal, najbrži portal u Srbiji i regionu sa najvećim rastućim rezultatima i ekskluzivnim vestima. Zapratite nas i na društvenim mrežama Instagram, Facebook, Threads, TikTok!
  • Impresum
  • Politika privatnosti
  • Uslovi korištenja
  • Kontakt
2025 © Hype TV
Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?