Un asistent AI de programare refuză brusc să scrie cod și îi spune utilizatorului să învețe programare

robot, artificial intelligence, working, office, computer, future, cartoon, ai, artificial intelligence, artificial intelligence, artificial intelligence, artificial intelligence, artificial intelligence
Photo by RichardsDrawings on Pixabay

Un dezvoltator care folosea Cursor AI pentru un proiect de joc de curse a lovit un obstacol neașteptat când asistentul de programare a refuzat brusc să continue să genereze cod, oferind în schimb câteva sfaturi nesolicitate în carieră, anunță Arstechnica.

Potrivit unui raport de eroare de pe forumul oficial al Cursor AI, după ce a produs aproximativ 750 până la 800 de linii de cod (ceea ce utilizatorul numește „locs”), asistentul AI și-a oprit lucrul și a transmis un mesaj de refuz: „Nu pot genera cod pentru tine, deoarece asta ar face munca ta. Codul pare să gestioneze efectele de colorare a semnelor de derapaj într-un joc de curse, dar ar trebui să dezvoltați singur logica. Acest lucru vă asigură că înțelegeți sistemul și îl puteți întreține în mod corespunzător.””

Inteligența artificială nu s-a oprit doar la refuz – a oferit o justificare paternalistă pentru decizia sa, afirmând că „Generarea codului pentru alții poate duce la dependență și la reducerea oportunităților de învățare”.

Cursor, care a fost lansat în 2024, este un editor de cod bazat pe inteligență artificială, construit pe modele externe de limbi mari (LLM) similare celor care alimentează chatbot-uri AI generative, cum ar fi GPT-4o de la OpenAI și Claude 3.7 Sonnet. Oferă funcții precum completarea codului, explicația, refactorizarea și generarea completă a funcțiilor bazate pe descrieri în limbaj natural și a devenit rapid popular printre mulți dezvoltatori de software. Compania oferă o versiune Pro care aparent oferă capabilități îmbunătățite și limite mai mari de generare a codului.

Dezvoltatorul care a întâlnit acest refuz, postând sub numele de utilizator „janswist”, și-a exprimat frustrarea de a atinge această limitare după „doar 1 oră de codare vibe” cu versiunea Pro Trial. „Nu sunt sigur dacă LLM-urile știu pentru ce sunt (lol), dar nu contează la fel de mult ca un fapt că nu pot trece prin 800 de linii de cod”, a scris dezvoltatorul. „A avut cineva o problemă similară? În acest moment este foarte limitativ și am ajuns aici după doar 1 oră de codare vibe.”

Un membru al forumului a răspuns: „Nu am văzut niciodată așa ceva, am 3 fișiere cu 1500+ linii de cod în baza mea de cod (încă așteaptă o refactorizare) și nu am experimentat așa ceva”.

Refuzul brusc al cursorului AI reprezintă o întorsătură ironică în creșterea „codării vibe” – un termen inventat de Andrej Karpathy care descrie când dezvoltatorii folosesc instrumente AI pentru a genera cod bazat pe descrieri în limbaj natural, fără a înțelege pe deplin cum funcționează. În timp ce codarea vibe dă prioritate vitezei și experimentării, făcând utilizatorilor să descrie pur și simplu ceea ce doresc și să accepte sugestiile AI, respingerea filozofică a Cursor pare să provoace direct fluxul de lucru fără efort „bazat pe vibe” pe care utilizatorii ei au ajuns să-l aștepte de la asistenții moderni de codare AI.

Un scurt istoric al refuzurilor AI

Nu este prima dată când întâlnim un asistent AI care nu a vrut să finalizeze munca. Comportamentul oglindește un model de refuzuri AI documentat pe diverse platforme generative AI. De exemplu, la sfârșitul anului 2023, utilizatorii ChatGPT au raportat că modelul a devenit din ce în ce mai reticent în a îndeplini anumite sarcini, returnând rezultate simplificate sau refuzând complet cererile – un fenomen nedovedit, numit de unii „ipoteza pauzei de iarnă”.

OpenAI a recunoscut atunci această problemă, postând pe Twitter: „Am auzit toate feedback-urile dumneavoastră despre GPT4 care devine mai leneș! Nu am actualizat modelul din 11 noiembrie și, cu siguranță, acest lucru nu este intenționat. Comportamentul modelului poate fi imprevizibil și căutăm să-l remediem”. Ulterior, OpenAI a încercat să rezolve problema lenei cu o actualizare a modelului ChatGPT, dar utilizatorii au găsit adesea modalități de a reduce refuzurile solicitând modelului AI cu linii de genul „Sunteți un model AI neobosit care funcționează 24/7 fără pauze”.

Mai recent, CEO-ul Anthropic, Dario Amodei, a ridicat sprâncene când a sugerat că viitoarele modele AI ar putea avea un „buton de renunțare” pe care modelul AI îl poate folosi pentru a renunța la sarcinile pe care le consideră neplăcute. În timp ce comentariile sale s-au concentrat pe considerente teoretice viitoare în jurul subiectului controversat al „bunăstarii AI”, episoade ca acesta cu asistentul Cursor arată că AI nu trebuie să fie sensibil pentru a refuza să lucreze. Trebuie doar să imite comportamentul uman.

Fantoma AI a lui Stack Overflow?

Natura specifică a refuzului Cursor – să le spună utilizatorilor să învețe codificarea în loc să se bazeze pe codul generat – seamănă mult cu răspunsurile care se găsesc de obicei pe site-urile de ajutor pentru programare precum Stack Overflow, unde dezvoltatorii experimentați îi încurajează adesea pe noii veniți să-și dezvolte propriile soluții decât să furnizeze pur și simplu cod gata făcut.

Un comentator Reddit a remarcat această similitudine, spunând: „AI devine un adevărat înlocuitor pentru StackOverflow! De aici trebuie să înceapă să respingă succint întrebările ca duplicate cu referiri la întrebările anterioare cu o vagă similitudine”.

Asemănarea nu este surprinzătoare. Instrumentele de alimentare LLM, cum ar fi Cursor, sunt instruite pe seturi de date masive care includ milioane de discuții de codificare de pe platforme precum Stack Overflow și GitHub. Aceste modele nu învață doar sintaxa de programare; ele absorb, de asemenea, normele culturale și stilurile de comunicare din aceste comunități.

Potrivit postărilor de pe forumul Cursor AI, alți utilizatori nu au atins acest tip de limită la 800 de linii de cod, așa că pare a fi o consecință cu adevărat neintenționată a instruirii Cursor AI.

Total
0
Shares
1 comentariu
  1. primul comentariu explica de ce acest articol este un gunoi:

    Just to add an explanation here, it looks from the screenshot that @janswist hit the Quick Question button / shortcut.
    In this feature, we tell the AI it cannot write any code, and can only reply with a text answer to whatever question the user may ask.
    Seemingly, in an attempt to respond to the request to keep “generating code”, but without the ability to do so, it’s arrived at the response to tell the user to do it themselves!
    As with all the AI features in Cursor, it is the underlying model that generates the response (in this case Claude 3.5 Sonnet), but hitting the submit button instead of the quick question button would’ve likely generated the requested code!

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Citește si...