Ediția #155: Proiect de lege care ar urma să reglementeze folosirea video-urilor sau imaginilor sintetice
Bună dimineața,
39 de deputați și senatori PNL, PSD, UDMR și ai minorităților naționale au semnat un proiect de lege care ar urma să reglementeze folosirea video-urilor sau imaginilor sintetice - adică create cu tehnologie digitală - și numite deepfakes. (PL 272/4.04.2023)
Potrivit Adresei inițiatorului, înregistrată pe site-ul Camerei Deputaților, autorii proiectului sunt fostul ministru al Justiției, senatorul PSD Robert Cazanciuc, și deputatul PSD Eugen Bejinariu.
Am citit proiectul de lege și ne-am dat seama că acesta are carențe majore în ceea ce privește limitarea efectelor dezinformării, iar autorii au reale probleme în a stăpâni terminologia din domeniu, au copiat și tradus greșit unele expresii și, în plus, nu fac diferența între Realitate Augmentată și Realitate Virtuală.
Ce prevede proiectul
Documentul vine să reglementeze crearea, difuzarea și stocarea de conținut sintetic realizat cu un scop ostil (malicious (eng.), tradus în documentele oficiale ca „malițios”).
Prin deepfake, autorii înțeleg „orice conținut de tip imagine, înregistrare audio sau înregistrare video create cu ajutorul Inteligenței Artificiale sau cu ajutorul tehnologiei de augmentare a realității (n.r. numită impropriu RV, în loc de AR) astfel încât să creeze aparența că o persoană a spus sau a făcut lucruri care în realitate nu au fost spuse, respectiv nu au fost făcute de acea persoană”.
Termenul deepfake a fost folosit pentru prima dată în anul 2017 pentru a desemna falsuri video create folosind tehnici de inteligență artificială de tip deep learning (învățare profundă). Traducerea „fals sever” a fost introdusă în premieră în cadrul acestui proiect de lege.
Proiectul nu interzice difuzarea acestora, ci stipulează că ele trebuie „însoțite de o notificare vizibilă”. În cazul conținutului sintetic realizat cu scopuri comerciale, acesta va trebui marcat pe o suprafață de 10% din dimensiunea lor, pe tot timpul difuzării, cu eticheta „Acest material conține ipostaze imaginare”.
Lipsa acestor marcaje pentru deepfakes definite în contextul legii constituie infracțiune și se pedepsește cu amendă penală sau închisoare de la 6 luni la 2 ani.
Ce ni s-a părut problematic
Proiectul de lege nu ne lămurește ce autoritate este responsabilă să determine dacă un video difuzat pe internet este deepfake, așa cum notează într-o scurtă analiză Asociația pentru Tehnologie și Internet. (ApTI via Telegram)
În plus, nu e clar ce tip de marcaj ar trebui să fie aplicat pe deepfakes create intenționat cu scopul de a dezinforma - iar proiectul nu specifică asta, deși autorii fac referire la conținutul ostil în Expunerea de motive.
De asemenea, nu e clar ce efect ar avea pentru public marcarea video-urilor sintetice dezinformative sau create intenționat pentru a manipula publicul în timpul campaniilor electorale. Iar conținutul sintetic manipulator, fie că e sub formă de text sau audio, creează deja îngrijorări pentru alegerile din 2024. (Fortune)
Să luăm o situație ipotetică: să presupunem că în preajma alegerilor parlamentare din 2024, ar fi difuzat pe Facebook un deepfake care îl prezintă pe senatorul Robert Cazanciuc făcând declarații pe care acesta nu le-a făcut în realitate. De pildă, amenințând cu moartea un contracandidat.
În condițiile în care nu avem date științifice care să ne arate dacă publicul românesc are un bagaj de educație media suficient să îl ajute să înțeleagă diferența dintre video-uri sintetice și autentice, riscul e ca aceste deepfakes dezinformative sau manipulative să fie percepute de public drept reale, iar marcajul să fie perceput drept o formă de cenzură.
E ceea ce se întâmplă deja cu marcarea conținutului fals în social media, unde marcarea cu eticheta „fals” are și efecte colaterale, așa cum arată o analiză a Partnership on AI.
MIT Technology Review notează și ei într-un studiu din 2020 concluzii similare.
Am mai remarcat că atât în proiectul de lege depus, cât și în Expunerea de motive, autorii folosesc expresiile „falsul sever” și „falsul server” drept sinonime pentru deepfake - pe care îl ortografiază de cele mai multe ori greșit („deepfack”).
Acum, un server este un program sau un computer care procesează solicitări din partea unui client sau stochează informații. (Britannica)
Nu e clar pentru noi care e legătura dintre server și fals :)
Documentele proiectului au fost modificate luni, 10 aprilie, pentru a corecta folosirea sintagmei „fals server”.
Internațional
👉 Arestarea reporterului Evan Gershkovich de la Wall Street Journal de către autoritățile din Rusia, sub acuzația de spionaj, aduce aminte de tacticile URSS în ceea ce privește corespondenții străini. (Nieman Lab)
👉 Trei feluri în care chat boții de tip ChatGPT sau Bard sunt un coșmar pentru securitatea utilizatorilor sau a datelor stocate online. (MIT Technology Review)
👉 …în timp ce The Daily Beast citează cercetători care au observat că Bard, chatbot-ul Google, produce informații greșite și care incită la ură.
👉 Un primar din Australia se pregătește să dea în judecată compania OpenAI, care a creat ChatGPT, dacă chatbot-ul nu corectează informațiile false generate despre acesta, și care susțin că primarul ar fi făcut pușcărie pentru luare de mită. (Reuters)
👉 ...iar un profesor de drept din California a descoperit că ChatGPT l-a inclus pe o listă de profesori acuzați de hărțuire sexuală. Doar că acuzațiile nu au existat niciodată, iar chatbotul a inventat și un articol de presă fals pentru a-și susține teoria. (The Washington Post)
👉 Tech Policy Press compară eforturile SUA și UE de contracarare a efectelor dezinformării și arată că SUA poate învăța din măsurile adoptate sau discutate în UE.
👉 Twitter este acuzat că a acceptat presiunea guvernului din India și a redus audiența postărilor pentru mai mulți jurnaliști proeminenți, activiști și politicieni critici la adresa guvernului. (The Guardian)
👉 …în același timp, platforma nu mai limitează audiența conturilor deschise de instituții media de propagandă ale Chinei și Rusiei. (Semafor)
👉 Meta, compania mamă a Facebook, refuză să clarifice dacă va permite politicienilor să folosească deepfakes fără ca acestea să fie marcate corespunzător. (The Washington Post)
👉 Vorbim destul de mult despre interzicerea TikTok în diverse țări sau medii, dar ar fi bine să vedem și cât de dependent e Vestul de alte tehnologii implementate de China. (coda story)
👉 O analiză nouă care ia în considerare mai multe studii științifice realizate de-a lungul timpului spune că există metode prin care putem submina efectul teoriilor conspirației. Și le și precizează :) (Scientific American)
👉 Dacă munciți în domeniul PR (...dar și dacă nu), vă recomandăm acest ghid scris de Dave Fleet head of global digital crisis la Edelman, cea mai mare companie de PR din lume. Se referă la managementul reputației brandurilor în contextul valurilor de informații greșite și false generate de AI. (PRNewsOnline.com)
👉 BONUS READ. Universitatea Stanford și departamentul Human-Centered Artificial Intelligence au publicat Raportul pe 2023 referitor la avansul Inteligenței Artificiale. Ediția din 2023 e foarte lungă, dar dacă vă pasionează subiectul, aveți aici un instrument care oferă o evaluare imparțială a stadiului în care se află acest tip de tehnologie.
Prieteni, echipa Misreport intră în vacanța de primăvară. Ne reîntâlnim aici pe 2 mai!
Până atunci, vă recomandăm să vă luați pauze cât mai dese de la fluxuri continue de informații și să vă bucurați de primăvară, pe cât posibil nu din fotografii de pe rețele sociale!
Proiectul asta de lege pare din categoria "tara arde si baba se piaptana". Cu 'deranjul' pe care ni-l fac la granita vecinii de la Rasarit politicienii romani au gasit cea mai arzatoare problema a momentului: imaginile deepfake. 😁
Merci pentru informatii! Vacanta odihnitoare!