Oamenii de știință au cerut lui ChatGPT să rezolve o problemă de matematică veche de 2.400 de ani / Răspunsul a uimit cercetătorii

o imagine cu statuia filozofului grec, Socrate
Sursa foto: Dreamstime

De secole ne întrebăm dacă cunoașterea este latentă și înnăscută sau dacă este dobândită prin experiență. Acum, un nou proiect de cercetare ridică aceeași întrebare în legătură cu inteligența artificială, informează LiveScience.

Urmărește cele mai noi producții video TechRider.ro

- articolul continuă mai jos -

Filosoful grec Platon a scris, în jurul anului 385 î.Hr., despre modul în care Socrate provoca un elev cu problema „dublării pătratului”. Atunci când i s-a cerut să dubleze aria unui pătrat, elevul a dublat lungimea fiecărei laturi, fără să știe că, de fapt, latura noului pătrat ar trebui să fie egală cu diagonala pătratului inițial.

Șanse mici ca soluția să fi fost prezentă în datele de antrenament

Oamenii de știință de la Universitatea Cambridge și Universitatea Ebraică din Ierusalim au ales această problemă pentru a o testa pe ChatGPT tocmai pentru că soluția ei nu este una evidentă. De-a lungul celor 2.400 de ani de la scrierile lui Platon, problema a fost folosită pentru a dezbate dacă abilitatea matematică este deja „în noi”, eliberată prin rațiune, sau dacă poate fi dobândită doar prin experiență.

Cum ChatGPT și alte modele lingvistice mari (LLM) sunt antrenate în principal pe texte, nu pe imagini, cercetătorii au considerat că există șanse mici ca soluția să fi fost prezentă în datele de antrenament. Astfel, dacă AI-ul ar fi găsit singur soluția corectă, s-ar putea susține că abilitatea matematică se învață, nu este înnăscută.

O dovadă clară că AI nu repeta informații, ci genera idei noi

Într-un studiu publicat în International Journal of Mathematical Education in Science and Technology, cercetătorii au cerut chatbotului să dubleze aria unui dreptunghi. Răspunsul a fost acela că, din moment ce diagonala unui dreptunghi nu poate fi folosită pentru a-i dubla aria, nu există nicio soluție geometrică.

Totuși, cercetătorii Nadav Marco (Universitatea Cambridge / Universitatea Ebraică din Ierusalim) și Andreas Stylianides (profesor de educație matematică) știau că o soluție geometrică există.

Nadav Marco a subliniat că șansele ca o astfel de afirmație falsă să fi existat în datele de antrenament ale lui ChatGPT erau „aproape nule”. Prin urmare, AI-ul improviza răspunsuri pe baza discuțiilor anterioare despre problema dublării pătratului, o dovadă clară că nu repeta informații, ci genera idei noi.

„Când ne confruntăm cu o problemă nouă, instinctul nostru este să încercăm lucruri bazate pe experiența anterioară. În experimentul nostru, ChatGPT a părut să facă ceva similar. Ca un elev sau un cercetător, părea să-și formuleze propriile ipoteze și soluții”, a declarat Nadav Marco.

Mașini care gândesc?

Studiul ridică întrebări noi despre ce înseamnă „raționament” și „gândire” în cazul inteligenței artificiale.

Pentru că a părut să improvizeze răspunsuri și chiar să facă greșeli asemănătoare elevului lui Socrate, Marco și Stylianides au sugerat că ChatGPT ar putea folosi un concept cunoscut din educație. Mai exact, zona dezvoltării proxime (ZDP), adică distanța dintre ceea ce știm și ceea ce putem învăța cu sprijinul potrivit.

Cu alte cuvinte, ChatGPT ar putea folosi spontan un cadru similar, și să rezolve probleme noi care nu apar în datele de antrenament, doar datorită modului în care este stimulat prin întrebări.

Cercetătorii avertizează, totuși, că nu ar trebui să concluzionăm că modelele lingvistice „rezolvă lucrurile” exact ca oamenii. Dar comportamentul lui ChatGPT a fost descris ca fiind „asemănător cu cel al unui elev”.

Studenții nu pot presupune că demonstrațiile generate de ChatGPT sunt valide

Studiul scoate la suprafață și problema „cutiei negre” în AI. Practic, procesul prin care un sistem ajunge la o concluzie este invizibil și imposibil de urmărit. Totuși, concluzia cercetătorilor este că aceste experimente pot ajuta la îmbunătățirea modului în care folosim inteligența artificială în educație.

„Spre deosebire de demonstrațiile din manualele consacrate, studenții nu pot presupune că demonstrațiile generate de ChatGPT sunt valide. Înțelegerea și evaluarea acestor demonstrații AI devin abilități esențiale, care ar trebui introduse în curriculumul de matematică”, a spus Stylianides.

  • Adrian Nicolae este jurnalist și scriitor specializat în știință, cu un doctorat în arheologie preistorică și peste două decenii de experiență în presa scrisă și digitală. A început în redacția Ziarului Financiar, a condus apoi site-ul Descoperă.ro ca redactor-șef, iar mai târziu a fost editor la revista Știință și Tehnică. Ulterior a coordonat pagina de știință de la HotNews. Din 2025 s-a alăturat echipei TechRider, divizie a G4Media, acolo unde semnează materiale de specialitate în domeniul științific. În paralel, a creat pagina de Facebook „O mică doză de cultură generală”, un proiect de popularizare a științei în cheie relaxată, al cărui succes i-a depășit toate așteptările. Alergic la exprimările scorțoase, preferă să lase știința să vorbească. Iar pentru el, știința e, pur și simplu, cea mai fascinantă poveste spusă vreodată.

Total
0
Shares
Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Citește si...