Cuvântul anului 2022, ales de dicționarul american Merriam-Webster, este „gaslighting” și reflectă „epoca dezinformării” în care trăim. Dicţionarul defineşte „gaslighting” drept „acţiunea sau practica de a induce în eroare o persoană în propriul avantaj
Recent am dat peste un comentariu al unei cunoștințe, un domn entuziasmat de un AI, numit ChatGPT, ce oferă un acces demo de 30 zile, ChatGPT poate scrie, de exemplu o scrisoare de dragoste. Testul a fost făcut, având ca subiect, evident, soția sa.
Din întâmplare sau nu, Chat GPT, probabil este un subiect fierbinte în lume mare, așa că am dat peste același subiect în Twitter. De data asta, autoarea, un fel de "Emilia Șercan", dar din altă țară, a determinat AI-ul să creeze eseuri științifice, să le susțină cu citări din diverși autori, etc.
La finalul descrierii experimentului (un șir/thread explicativ pas cu pas) cu ChatGPT, ajunge la concluzia că pot fi elaborate texte credibile dar false în conținut, bune pentru dezinformare.
Premisa, citat/rezumat este, de la Teresa Kubacka: "Today I asked ChatGPT about the topic I wrote my PhD about. It produced reasonably sounding explanations and reasonably looking citations. So far so good – until I fact-checked the citations. And things got spooky when I asked about a physical phenomenon that doesn’t exist."
Ediția #139
Bună ziua,
Recent am dat peste un comentariu al unei cunoștințe, un domn entuziasmat de un AI, numit ChatGPT, ce oferă un acces demo de 30 zile, ChatGPT poate scrie, de exemplu o scrisoare de dragoste. Testul a fost făcut, având ca subiect, evident, soția sa.
Din întâmplare sau nu, Chat GPT, probabil este un subiect fierbinte în lume mare, așa că am dat peste același subiect în Twitter. De data asta, autoarea, un fel de "Emilia Șercan", dar din altă țară, a determinat AI-ul să creeze eseuri științifice, să le susțină cu citări din diverși autori, etc.
La finalul descrierii experimentului (un șir/thread explicativ pas cu pas) cu ChatGPT, ajunge la concluzia că pot fi elaborate texte credibile dar false în conținut, bune pentru dezinformare.
Premisa, citat/rezumat este, de la Teresa Kubacka: "Today I asked ChatGPT about the topic I wrote my PhD about. It produced reasonably sounding explanations and reasonably looking citations. So far so good – until I fact-checked the citations. And things got spooky when I asked about a physical phenomenon that doesn’t exist."
Link în Twitter https://twitter.com/paniterka_ch/status/1599893718214901760