Cei de la revista Science au publicat știrea că inteligența artificială (IA) ar putea fi utilizată pentru a menține igiena cunoașterii.
Informația are la bază studiul Durably reducing conspiracy beliefs through dialogues with AI, realizat de Thomas H. Costello, Gordon Pennycook și David G. Rand.[1]
Acest studiu a arătat că o IA ar putea avea rezultate bune în lupta împotriva dezinformării; cel puțin în unele cazuri. Mai exact, o IA a scăzut în mod semnificativ procentul celor care credeau în teoriile conspirației pentru o perioadă semnificativă de timp.
Două aspecte par să fi avut o importanță semnificativă:
- Prezentarea datelor și a faptelor. În acest sens, este relevantă amploarea datelor pe care le accesează aceste „modele lingvistice mari” (large language models – LLMs), avânt o capacitate mai mare decât omul de a oferi informații.
- Tonul politicos adoptat (lipsa implicării emoționale), ce nu a activat perceperea prezentării ca o critică.
Încercând o formă de rezumare, ar putea fi vorba de prezentarea datelor și faptelor într-o formă ce nu sugerează pasiunea pusă de oameni pentru a convinge (cu exagerările specifice acesteia și cu riscurile specifice de lezare a orgoliului personal). Nu putem exclude posibilitatea ca IA să fie percepută undeva în zona unei autorități superioare, ce ar putea modifica poziționările cognitive ale subiecților cu care interacționează.
Punctele slabe
Modelul utilizat de echipa condusă de Thomas Costello ar putea funcționa doar în cazul teoriilor conspirației ce au la bază elaborării ample (investite cu preocupare și pasiune), nefiind clară eficiența sa în cazul celor superficiale, cu justificări puține.
Dată fiind obținerea rezultatelor în cadrul unui experiment, nu este clar nivelul de expunere la dialogul cu AI necesar pentru a menține efectul. Cu caracter speculativ, putem considera că, dată fiind contribuția contextului social la existența acestor teorii, o creștere a interacțiunilor cu IA (în dauna celor de tip social) ar putea avea efecte semnificative. Evident, nu putem anticipa costurile (efectele secundare) pentru o astfel de variantă.
Dată fiind dependența IA de validarea rezultatelor, în condițiile funcționării în lumea reală nu este clar cum ar fi modificată IA de interacțiunea frecventă cu adepții teoriei conspirației.
Nu toate lucrurile sunt roze, capacitatea de persuasiune a IA aducând în discuție riscurile derivate din utilizarea ei în scopuri lipsite de etică. Putem observa că experimentul a funcționat în condițiile în care IA a fost antrenată cu bună credință; ceea ce nu reprezintă în mod obligatoriu o regulă.
Din perspectiva structurării tipurilor de inteligență artificială utilizabile în astfel de situații probabil că n-ar trebui să uităm de efectul GIGO (Garbage In, Garbage Out), inclusiv raportat la posibilitatea acordului comun privind ceea ce înseamnă datele și faptele.
_____________________________________________________
[1] Thomas H. Costello, Gordon Pennycook, David G. Rand, Durably reducing conspiracy beliefs through dialogues with AI.
Science385,eadq1814(2024). DOI:10.1126/science.adq1814