Foto: JRdes/Shutterstock;

Četiri najuticajnije kompanije u oblasti veštačke inteligencije formirale su grupu koja će na nivou čitave industrije nadgledati siguran razvoj najnaprednijih AI modela.

Organizaciju „Frontier Model Forum“ formirali su kompanija „Open AI“ koja je razvila čet-bota ChatGPT, zatim „Majkrosoft“, „Gugl“, vlasnik AI kompanije „Dip majnd“ sa sedištem u Velikoj Britaniji i kompanija „Antropik“.

Predstavnici ove grupe kažu da će fokus biti na bezbednom i odgovornom razvoju najnaprednijih modela veštačke inteligencije, misleći pritom i na buduću tehnologiju zasnovanu na veštačkoj inteligenciji koja će biti mnogo naprednija od alata koji su trenutno dostupni, piše Gardijan.

Pročitajte još

„Kompanije koje razvijaju tehnologiju zasnovanu na veštačkoj inteligenciji odgovorne su za stvaranje bezbednog proizvoda koji mora ostati pod kontrolom čoveka.“, rekao je Bred Smit, predsednik „Majkrosofta“.

On dodaje da je ova inicijativa ključni korak za zbližavanje tehnološkog sektora na polju odgovornog razvijanja veštačke inteligencije na način na koji će celo čovečanstvo od toga imati koristi.

Foto: Google

Članovi foruma navode da su njihovi glavni ciljevi promovisanje istraživanja bezbednosti veštačke inteligencije, kao što je razvoj standarda za procenu modela; podsticanje odgovorne primene naprednih modela zasnovanih na veštačkoj inteligenciji; razmatranje bezbednosnih rizika i poverenja u veštačku inteligenciju sa političarima i stručnjacima; podrška razvoja pozitivnih upotreba veštačke inteligencije kao što je borba protiv klimatske krize i rano otkrivanje raka.

Oni dodaju da je članstvo u grupi otvoreno za organizacije koje razvijaju granične modele, koji su definisani kao „veliki modeli mašinskog učenja koji prevazilaze mogućnosti koje su trenutno prisutne u najnaprednijim postojećim modelima, i mogu da obavljaju širok spektar zadataka“ .

Ne propustite

Najava o osnivanju ove grupe stiže u trenutku kada sa se ubrzava regulisanje tehnologije. U petak su tehnološke kompanije – uključujući članice grupe „Frontier Model Forum“ – pristale na nove zaštitne mere u vezi sa veštačkom inteligencijom posle sastanka sa Džozefom Bajdenom u Beloj kući.

Obaveze usvojene na sastanku uključuju označavanje sadržaja koji proizvode alati zasnovani na veštačkoj inteligenciji, kako bi se olakšalo uočavanje obmanjujućih materijala (poput takozvanih deepfakes) i omogućavanje nezavisnim stručnjacima da testiraju AI modele.

Foto: Shutterstock

Saopštenje Bele kuće naišlo je na skepticizam od strane nekih aktivista koji ocenjuju da je tehnološka industrija poznata po nepoštovanja pravila o samoregulaciji. Prošlonedeljnu najavu „Mete“ da će objaviti model veštačke inteligencije jedan stručnjak je opisao kao „davanje ljudima šablona za pravljenje nuklearne bombe“.

Grupa „Frontier Model Forum „ističe da su „važan doprinos“ bezbednosti dala tela poput vlade Ujedinjenog Kraljevstva, koja je sazvala globalni samit o bezbednosti u oblasti veštačke inteligencije, i EU, koja uvodi zakon o veštačkoj inteligenciji koji predstavlja najozbiljniji zakonodavni pokušaj da se reguliše trenutno najbrže rastuća tehnologija.

BONUS VIDEO:

Koje je tvoje mišljenje o ovoj temi?

Ostavi prvi komentar