Dragos Iliescu

    • Bio
    • Academic career
    • Entrepreneurship
    • Books
    • Publications
      • Papers
      • Chapters
      • Policy papers
      • Software
      • Tests
    • Blog
    • Media
    • Contact

    Dragos Iliescu

      • Bio
      • Academic career
      • Entrepreneurship
      • Books
      • Publications
        • Papers
        • Chapters
        • Policy papers
        • Software
        • Tests
      • Blog
      • Media
      • Contact

    Copyright © 2025

    • By dragos_admin
    • In Blog
    • October 9, 2025

    Despre „inteligență”, AI și confuziile fertile

    Am avut privilegiul să fiu parte dintr-un panel care a discutat pe marginea opiniilor despre inteligență umană și artificială enunțate de Ștefan Popenici – sunt în esență pozițiile din cartea lui publicată de curând la Routledge, ”Artificial Intelligence and Learning Futures”. Cartea e fascinantă și bine scrisă și Ștefan e un filosof bine documentat și cu vervă pe aceste subiecte – preda la Sydney, la Charles Darwin University. Panelul m-a incitat suficient încât să scriu aceste câteva gânduri aici, deci …

    * * *

    Există două conversații amestecate periculos în dezbaterea despre inteligență și inteligență artificială: una despre istorie și ideologie; alta despre construcții științifice și măsurare. Când le confundăm, pierdem simultan memoria critică a trecutului și rigoarea atât de necesară prezentului. Ideile mele de mai jos sunt o pledoarie pentru a ține ambele fire, fără a le înnoda într-un melanj ciudat în care nu mai pot fi deosebite și care devine apoi o dilemă greu sau imposibil de rezolvat.

    Istorie vs. știință: ambele contează, dar nu sunt același lucru

    Ștefan remarcă faptul că Francis Galton, de la care ni se trage actuala înțelegere a inteligenței umane, a fost un bizar – care ne-a dat printre altele si ”darul” eugenismului. Eh, doar parțial corect, pentru că eugenismul exista cu mult înainte de Galton, iar idei legate de puritate rasială avem câtă frunză, câtă iarbă presărate prin civilizația umană. Abundă aceste idei și în Vechiul Testament, deh – deci nu le-a inventat în vreun fel Galton.

    În fine, nu neg: da, Galton (BTW, văr primar cu Charles Darwin!) a fost un bigot și un rasist, alături de Lewis Terman și de alții ca ei, care au marcat primii ani de studii și aplicații legate de inteligența umană, iar începuturile testării inteligenței în SUA s-au intersectat clar cu eugenismul. Asta este foarte clar și e un fapt istoric. Tot la fel de adevărat este că psihometria modernă a construit, în decenii de muncă, un aparat robust de validare, echitate și audit: eșantioane reprezentative, invarianță de măsurare, analize DIF (differential item functioning), modele ierarhice bine testate, politici etice de utilizare. Originea problematică a conceptului de inteligență nu anulează un secol de rafinament metodologic; dimpotrivă, a fost un impuls pentru aceste evoluții sofisticate. Istoria ne avertizează, e adevărat, dar nu suntem sclavii istoriei. În acest caz, știința a evoluat imens iar conceptul de inteligență a fost pe deplin recuperat pentru știință onestă și pentru utilizare responsabilă. Originile conceptului nu îi definesc prezentul – metodologia științifică și dovezile fac asta.

    Aș mai spune aici că istoric vorbind, citatele revoltătoare legate de diverse forme de pseudoștiință relaționate cu inteligența umană există, fără doar și poate. Dar nici un domeniu nu ar rezista dacă l-am defini prin cei mai răi exponenți ai săi. Etic vorbind, avem obligația să păstrăm memoria critică a abuzurilor și tâmpeniilor spuse de unii din exponenții domeniului – științific vorbind, avem însă obligația să judecăm metodele actuale: cum se colectează datele, cum se construiesc modelele, ce forme de control al distorsiunilor aplicăm, ce mecanisme de responsabilizare cerem. Exemplarele sinistre nu sunt definitorii; sunt doar avertismente.

    Ce este inteligența (umană) – și ce nu este

    În psihologie, inteligența este o diferență individuală latentă care susține învățarea, raționamentul și rezolvarea problemelor – mai ales în situații noi. Dovezile converg către un model ierarhic: un factor general (g) care alimentează abilități largi (raționament fluid, cristalizat etc.), care la rândul lor se manifestă în sarcini cognitive de granulație mai mică. Diferențele individuale sunt stabile în timp și au o componentă biologică substanțială, mereu în interacțiune cu mediul. Stabil nu înseamnă imuabil: mediul și educația permit modificări, iar practica în domeniul cognitiv și dezvoltarea/îmbătrânirea (printre altele) duc și ele la schimbări – cu toate acestea, ordinea relativă a indivizilor în interiorul unei cohorte de vârstă rămâne surprinzător de constantă.

    Ce nu este inteligența? Nu este „orice vrem noi să fie” și nu este ”orice calitate dezirabilă pe care dorim să o scoatem în evidență”. Termeni precum „inteligență emoțională”, „culturală”, „civică”, „politică” denumesc alte constructe – or fi ele valoroase, dar nu sunt inteligențe. Am mai avut poziții publice în care am argumentat mai extins de ce cred acest lucru. Extinderea metaforică a cuvântului produce derapaje de sens: când totul devine „inteligență”, nimic nu mai este.

    Este de asemenea … neinspirat să afirmăm că „inteligența este un construct cultural, ideologic, moral… poate însemna orice dorește utilizatorul”. Faptul că există mai mult de 70 de definiții (sincer, mă mir că nu sunt mai mult de 100!) nu înseamnă că inteligența este orice vrem noi. Meta-sintezele arată o convergență substanțială asupra faptului că inteligența este o capacitate generală de rezolvare de probleme, iar eu cred că pluralitatea definițiilor nu este sinonimă cu haosul conceptual.

    Mai degrabă este un bun semnal de alarmă asupra derivelor semantice – dar, ca cercetători, trebuie să distingem între variația de formulare și nucleul empiric comun pe care îl vedem în corelații, structuri factoriale și putere predictivă. Aici convergența e reală: inteligența este capacitate generală de adaptare cognitivă la probleme, mai ales noi.

    Ce putem învăța unii de la alții: complementaritate, nu confuzie

    Este evident pentru mine că „inteligența artificială” este o familie de sisteme proiectate să optimizeze diverse obiective, relaționate la un set de date. Nu e o trăsătură latentă, ci un artefact tehnologic – să afirmăm altceva e o confuzie de categorie.

    Dar asta nu înseamnă că nu putem învăța ceva – în ambele sensuri. IA poate ajuta inteligența umană: poate de exemplu asista și augmenta capacități umane (căutare, memorie externă, rezumare, prototipare). Oamenii furnizează însă stabilitate trans-situațională, intenționalitate, judecată normativă și sens – ceea ce IA nu are.

    Atunci când aplicăm IA în sala de clasă – sau în orice alt context cu miză mare – e nevoie să facem câteva lucruri. De exemplu, printre altele:

    • păstrăm claritatea constructelor;
    • cerem dovezi pentru orice sistem folosit (fidelitate, validitate, invarianță, echivalență, erori standard de măsurare, monitorizare post-implementare);
    • definim limitele de utilizare (IA asistă, nu decide; IA propune, omul dispune);
    • păstrăm constant prezența umană (human-in-the-loop);
    • instituim guvernanță (transparență privind datele, scopuri, riscuri, mecanisme de apel):
    • utilizăm pentru obiective cu miză mare exclusiv modele IA antrenate pentru acel obiectiv și nu modele generale (halucinațiile și alte erori sunt reale în modelele generative deschise, care pot produce răspunsuri false, dar plauzibile, dar diferența dintre „AI liberă la output” și „AI constrânsă, auditată, cu rol limitat” este uriașă).

    E de fapt aceeași igienă de măsurare pe care o cerem și instrumentelor psihometrice, care, cu aceste limite impuse de comunitatea științifică, sunt astăzi o componentă importantă a societății noastre, pe care ne bazăm și în care ne încredem. Problema IA este legată de faptul că încercăm să o consacrăm fără astfel de instanțe de control – și asta e greșit.

    Optimism moderat privind AI

    Sunt, în mod cert, un optimist moderat cu privire la viitorul inteligenței artificiale. Spun „moderat” pentru că nu am uitat cum a început discuția despre inteligența umană: cu agende ideologice nocive, cu pseudoștiință împinsă de figuri influente, cu o tentativă de inginerie socială care a folosit testarea drept pretext moral și politic. Totuși, în timp, știința, cercetarea și bunul-simț societal au învins. Comunitățile academice au construit standarde metodologice, au introdus principii psihometrice solide, analize statistice, norme elaborate pe eșantioane reprezentative, au profesionalizat utilizarea testelor și au pus etică și transparență la temelia practicilor. Societatea – prin universități, organisme profesionale, reglementatori, ONG-uri și, nu în ultimul rând, prin reacția publică informată – a reușit să recupereze conceptul de inteligență, să-l igienizeze epistemic și să-l folosească în scopuri benefice: intervenții educaționale țintite, orientare vocațională mai corectă, screening clinic mai bun, selecție și dezvoltare profesională mai justă.

    Cred că un traseu similar este posibil și pentru IA. Da, și aici există actori puternici care propun versiuni ale viitorului încărcate ideologic, care văd societatea ca pe un sistem de optimizat cu forța unor algoritmi opaci. Dar am motive să cred că reziliența societății va funcționa din nou: prin reglementare informată, standardizare a evaluărilor, audituri independente, responsabilitate instituțională, coduri de conduită, implicarea comunităților afectate și cercetare critică. Nu pariez pe un „progres tehnic inevitabil”, ci pe instituții robuste, mecanisme de verificare publică și evaluare riguroasă – exact componentele care au permis științei inteligenței să se desprindă de originile ei toxice și să devină o forță pentru bine. În aceeași logică, IA va trebui „domesticită”: scoasă din retorică, trecută prin piloni de validare, transparență, protecția datelor și măsurare a impactului – iar atunci, sunt rezonabil de optimist că vom rămâne cu un instrument puternic în serviciul binelui comun, nu al unei utopii tehnocrate.

    Promisiunea IA în educație vs. amplificarea nocivă a diferențelor

    Legătura dintre inteligența umană și IA e seducătoare, dar predicția mea – care deocamdată este doar o ipoteză susținută de date puține, fiindcă acest capitol al științei abia se scrie acum – este că promisiunea de democratizare și echitate în educație nu va fi achitată pe deplin. Narațiunea curentă spune: IA oferă tuturor acces la cunoaștere, astfel încât elevii și adulții cu competențe mai reduse vor putea executa sarcini mai complexe și vor recupera decalajul față de cei deja performanți.

    Sună frumos, dar experiența noastră de-a lungul istoriei cu noile tehnologii arată altceva: ele de regulă adâncesc diferențele și împart societatea în câștigători și pierzători net. Fiecare tehnologie trece printr-un proces de adopție, în care oamenii învață să-și construiască modele mentale despre cum funcționează „mașina” și cum pot să o integreze eficient în sarcini. Avem o superbă tradiție a ergonomiei cognitive și a cercetării asupra interacțiunii om–mașină: felul în care reprezentăm intern un sistem tehnologic determină ușurința utilizării acestuia, viteza de învățare și calitatea performanței cu acesta.

    Or, inteligența umană rămâne cel mai robust predictor al învățării rapide și al performanței în practic toate formele sale – oamenii cu capacitate cognitivă mai ridicată construiesc mai repede și mai corect aceste modele mentale, își calibrează mai bine scopurile, identifică constrângerile sistemului și exploatează cunoștințele anterioare în noile contexte.

    Vedem deja astfel de semne: în sarcini de prompt engineering (i.e., instrucțiuni detaliate, contextualizate și nuanțate pentru o anumită sarcină, cerute de utilizatori unui sistem de IA), indivizii mai competenți conceptual formulează prompturi mai coerente, delimitează contextul, impun criterii de evaluare și „vorbesc pe limba” modelului mai eficient decât cei cu baza cognitivă sau de conținut mai subțire. Iar prompt engineering nu e doar tehnică: cere înțelegerea domeniului în care pui întrebări și o teorie mentală despre cum funcționează sistemul.

    Rezultatul probabil, mai ales în absența unor programe de formare dedicate celor dezavantajați, este că IA va accentua diferențele: inteligența (umană) va deveni un predictor excelent al capacității de a folosi corect IA, iar cei deja avantajați vor accelera și mai mult. Același mecanism se va manifesta atât la elevi, cât și la adulți: competențele cognitive și de conținut existente vor determina cât de repede și cât de bine internalizezi „regulile jocului” cu IA. Tocmai de aceea, dacă vrem echitate reală, nu e suficient „să dăm tuturor acces la un model IA”, ci e nevoie de formare țintită, interfețe care fac posibilă interacțiunea cu IA prin sarcini reduse din punct de vedere cognitiv, curriculum de alfabetizare IA și mentorat țintit. Altfel, tehnologia care promite convergență va produce divergență – nu pentru că ar fi rea în sine, ci pentru că diferențele de învățare și modelele mentale nu se distribuie uniform în populație – la fel precum inteligența.

    * * *

    Cartea lui Ștefan Popenici este valoroasă pentru noi toți ca antidot la naivitate: ne amintește că tehnologia nu e neutră, că există istorii incomode, că marketingul poate zdrobi prudența epistemică. Toate acestea sunt reale și recomand de aceea cartea fără rețineri.

    În același timp, tocmai pentru că miza e mare, cred că e esențial să nu aruncăm știința diferențelor individuale odată cu critica ideologică. În psihometrie, cuvintele au greutate pentru că sunt legate de modele, date și erori cuantificate. Când spunem „inteligența poate însemna orice”, publicul aude „nimic nu e măsurabil cu sens”. Iar asta e fals: avem mai mult de un secol de dovezi că un construct restrâns, clar – capacitate cognitivă generală – este măsurabil, stabil și util, cu limite bine înțelese.

    Prev Post

    mindCast I: Dragoș Iliescu despre adevăr versus bullshit

    Next Post

    A apărut editorialul meu anual în Intelligence: un an de reconstrucție, emoții, învățare și încredere

    Categories