Cercetătorii afirmă că filigranele actuale pentru IA sunt ușor de eliminat
Cercetătorii de la Universitatea din Maryland (UMD) au descoperit că filigranele actuale utilizate pentru a marca conținutul generat de inteligența artificială (IA) sunt ușor de eliminat și pot fi chiar înșelătoare1. Filigranele tradiționale sunt logo-uri sau modele vizibile care pot apărea pe diverse obiecte, cum ar fi bancnotele sau timbrele poștale, pentru a descuraja falsificarea1. În cazul inteligenței artificiale, filigranele sunt utilizate pentru a permite computerelor să detecteze dacă un text sau o imagine a fost generat de IA1.
Filigranele sunt importante în combaterea răspândirii de informații false și a deepfake-urilor, care pot fi create cu ajutorul artei generative și al inteligenței artificiale1. Deși sunt invizibile pentru ochiul liber, filigranele pot ajuta la prevenirea utilizării abuzive a conținutului generat de IA și pot fi integrate în programe de învățare automată dezvoltate de giganți tehnologici precum Google1. Alți actori importanți în domeniu, precum OpenAI, Meta și Amazon, folosesc tehnologia de filigranare pentru a combate dezinformarea1.
Cercetătorii de la UMD au examinat cât de ușor este pentru actorii rău intenționați să adauge sau să elimine filigranele și au descoperit că nu există aplicații de filigranare fiabile în acest moment1. Această descoperire subliniază nevoia de îmbunătățire a filigranelor pentru conținutul generat de IA înainte ca acestea să poată naviga cu succes în medii simulate și să combată dezinformarea în mod eficient1.
În concluzie, filigranele actuale pentru IA sunt insuficiente pentru a combate răspândirea de informații false și a deepfake-urilor. Cercetătorii de la UMD au evidențiat nevoia de a dezvolta metode de filigranare mai robuste și fiabile pentru a proteja conținutul generat de inteligența artificială și a preveni utilizarea abuzivă a acestuia. Pe măsură ce tehnologia IA continuă să evolueze, este esențial să se dezvolte și metodele de protecție a conținutului generat de aceasta.