AI Sora

Ne vjerujte svemu što vidite: Prirodne ljepote koje nisu stvarne

GREEN_300_listici_sredina

OpenAI predstavio Soru

Sora je sustav umjetne inteligencije koji ima sposobnost transformacije teksta u foto-realistične videozapise.

OpenAI je nedavno predstavio svoj najnoviji sustav umjetne inteligencije, Sora, koji ima sposobnost transformacije teksta u foto-realistične videozapise. Ovaj tehnološki napredak izaziva uzbuđenje u području umjetne inteligencije, ali istodobno izaziva zabrinutost zbog potencijalnih rizika vezanih uz deepfakeove.

Sora trenutno može generirati videozapise do 60 sekundi duljine koristeći samo tekstualne upute ili kombinaciju teksta i slike. Unatoč nekim pogreškama, Sora se ističe kao znatno uvjerljiviji u usporedbi s prethodnim modelima, što otvara mogućnost za realističnije deepfake videozapise. Međutim, stručnjaci upozoravaju na potencijalne zloupotrebe, naglašavajući kako kombinacija Sore s tehnologijom kloniranja glasa može rezultirati stvaranjem uvjerljivih deepfakeova koji bi ljudima mogli pripisivati izjave i postupke koje nikada nisu učinili, piše New Scientist.

“Kao i s drugim tehnikama u generativnoj umjetnoj inteligenciji, nema razloga vjerovati da se pretvaranje teksta u video neće nastaviti ubrzano poboljšavati te nas približiti trenutku kada će biti teško razlikovati lažno od stvarnog”, kaže Hany Farid s Berkeleya, sveučilišta u Kaliforniji.

Iako Sora još uvijek pokazuje neke greške, poput zamjene lijeve i desne noge hodajuće osobe ili prisutnosti nekih nelogičnosti u videozapisima, stručnjaci primjećuju značajan napredak u realizmu i manje karikaturalnosti. Ipak, naglašava se važnost testiranja i procjene mogućnosti zloupotrebe prije nego što Sora postane javno dostupna.

“Sora je apsolutno sposobna stvoriti videozapise koji bi mogli prevariti obične ljude. Video ne mora biti savršen da bi bio vjerodostojan jer mnogi ljudi još uvijek ne shvaćaju da se videom može manipulirati jednako lako kao i slikama”, objašnjava Rachel Tobac, suosnivačica SocialProof Securityja, IT organizacije usredotočene na društveni inženjering.

OpenAI je odgodio javnu dostupnost Sore dok provodi testiranje s odabranim stručnjacima, posebno onima koji su stručnjaci za dezinformacije, zlonamjerni sadržaj i pristranost. Ova faza testiranja ključna je kako bi se procijenila pouzdanost i sigurnost Sora sustava, s obzirom na moguće štetne posljedice, uključujući zloupotrebu umjetno stvorenih videa u svrhu širenja dezinformacija.

PHOTOS BY: The AI Colony / Sva prava pridržana

Vezani članci

Naša web stranica koristi kolačiće kako bismo vam pružili najbolje moguće korisničko iskustvo. Informacije o kolačićima koje koristimo možete pronaći u našim Pravilima privatnosti.