ALEXANDRU ENE
Maestru Venerabil din Trecut, Loja Millenium nr. 58, MLNR

În timp ce inteligența artificială (AI) este lăudată pentru potențialul său revoluționar, există o creștere a preocupărilor legate de ceea ce am putea numi “prostia artificială” – efectele negative neintenționate ale implementării grăbite și nechibzuite a tehnologiilor de Inteligență Artificială. Acest eseu explorează aspectele problematice ale Inteligenței Artificiale actuale, bazându-se pe studii și analize recente citate în diverse surse.

Primul punct
Degradarea calității limbajului

Un studiu recent realizat de prestigioasa Universitate Tübingen din Germania a scos la iveală o tendință îngrijorătoare în utilizarea limbajului, care poate fi atribuită parțial modelelor de limbaj AI. Cercetătorii au observat o creștere semnificativă în utilizarea “cuvintelor excedentare”, multe dintre acestea fiind împrumutate din jargonul corporatist.
Studiul relevă că:

  • Utilizarea cuvintelor precum “showcasing” și “underscore” a crescut de aproape 10 ori în 2024 față de anul precedent.
  • Frecvența cuvintelor precum “potential”, “findings” și “crucial” a crescut dramatic, acestea fiind asociate tot cu discursul corporatist.
  • Asemenea creșteri abrupte în utilizarea anumitor cuvinte au fost observate anterior doar în cazul unor evenimente globale majore, cum ar fi apariția termenilor “Ebola” în 2015 sau “coronavirus”, “lockdown” și “pandemie” între 2020 și 2022.
    Această tendință sugerează că modelele AI generative pot contribui la o uniformizare și sărăcire a limbajului, promovând un stil de comunicare lipsit de substanță și plin de clișee corporatiste, lipsite de conținut și de valoare lexicală, exemplul, celor de la Tübingen, fiind: “O comprehensiune exhaustivă a interacțiunii intricate dintre cerere și ofertă este pivotală pentru strategii eficace”. Toma Caragiu făcea umor așa acum zeci de ani. ”… Demitizarea exhaustivă și relațional caducă… Incongruența fenomenologică și introspectiv cromatică.”

Al doilea punct
Riscuri de securitate și confidențialitate

Un memo intern de la Google, scurs recent în presă, evidențiază preocupări serioase legate de impactul AI-ului generativ asupra internetului și societății în general. Conform acestui document:

  • AI-ul generativ este folosit pentru a produce conținut fals sau plagiat la scară largă, inundând internetul cu informații necredibile.
  • Principalele tactici de utilizare malițioasă a AI includ manipularea asemănării umane și falsificarea dovezilor.
  • Aceste tehnici sunt folosite în mod deliberat pentru a influența opinia publică, a facilita fraude și a genera profit ilicit.
  • Bariera tehnică redusă de intrare în utilizarea acestor sisteme AI amplifică problema, permițând unei game largi de actori să producă conținut fals cu ușurință.
    Memo-ul avertizează că această proliferare a conținutului sintetic de calitate slabă riscă să crească scepticismul general față de informațiile digitale și să supraîncarce utilizatorii cu nevoia de verificări complexe ale informațiilor întâlnite online.

Al treilea punct
Probleme etice și de proprietate intelectuală

Implementarea pripită a tehnologiilor AI ridică, de asemenea, probleme etice semnificative, în special în ceea ce privește drepturile de proprietate intelectuală. Un exemplu notabil este cazul companiei Perplexity, care propune un nou tip de motor de căutare bazat pe AI.
Problemele identificate includ:

  • Agregarea și sintetizarea conținutului fără a cita sursele originale.
  • Încălcarea paywall-urilor publicațiilor și utilizarea neautorizată a imaginilor.
  • Reținerea veniturilor din publicitate fără a compensa sursele originale ale conținutului.
    Aceste practici reprezintă o încălcare flagrantă a drepturilor de proprietate intelectuală și pun sub semnul întrebării etica utilizării AI în domeniul căutării și agregării de informații.

Al patrulea punct
Impactul economic și bula speculativă

Contrar așteptărilor optimiste, implementarea AI nu pare să genereze beneficiile economice anticipate. O analiză detaliată realizată de Goldman Sachs arată că:

  • În prezent, foarte puține companii reușesc să obțină profit din implementarea AI.
  • Multe companii care au implementat forțat funcții AI par să performeze mai prost decât înainte.
  • Doar 5-6% dintre marile companii din diverse domenii au adoptat cu adevărat tehnologii AI.
    Motivele principale pentru această adoptare lentă includ:
  • Erorile și halucinațiile sistemelor AI
  • Problemele de confidențialitate și securitate
  • Lipsa de transparență a companiilor care dezvoltă modelele AI
    Un raport al fondului de investiții Sequoia Capital subliniază amploarea investițiilor necesare în infrastructura AI:
  • Companiile implicate în AI ar trebui să genereze aproximativ 600 de miliarde de dolari anual doar pentru a acoperi costurile infrastructurii.
  • Chiar și în scenariile cele mai optimiste, marile companii tech ar genera fiecare profituri de doar 10 miliarde de dolari pe an din AI, lăsând o gaură financiară enormă.
    David Kahn, un analist reputat de la Sequoia, avertizează că:
  • Așteptările de profituri rapide din AI ar trebui temperate.
  • Investițiile curente în AI sunt în mare parte speculative.
  • Există un risc semnificativ ca această bulă AI, evaluată deja la sute de miliarde de dolari, să se spargă, putând declanșa o criză economică globală.

Al cincilea punct
Concluzia

În timp ce potențialul AI rămâne vast, implementarea sa actuală ridică numeroase probleme. De la degradarea calității limbajului și proliferarea dezinformării, până la probleme etice și riscuri economice, “prostia artificială” pare să fie un efect secundar semnificativ al cursei tehnologice actuale. Este crucial ca dezvoltarea și implementarea AI să fie ghidate de principii etice solide și să țină cont de impactul lor pe termen lung asupra societății și economiei. Doar printr-o abordare echilibrată și responsabilă putem spera să valorificăm beneficiile AI, minimizând în același timp efectele sale negative neintenționate.