Acum trei săptămâni, un inginer pe nume Calvin French-Owen, care a lucrat la unul dintre cele mai promițătoare produse noi ale OpenAI, și-a dat demisia de la companie.
Urmărește cele mai noi producții video TechRider.ro
- articolul continuă mai jos -
Acesta tocmai a publicat un articol pe blogul personal despre cum a fost să lucreze acolo timp de un an, inclusiv despre maratonul nedormit pentru a construi Codex, noul agent de codare al OpenAI, care concurează cu instrumente precum Cursor și Claude Code de la Anthropic, relatează TechCrunch.
French-Owen spune că nu a plecat din cauza vreunui „scandal”, ci pentru că vrea să revină la statutul de fondator de startup. A fost co-fondator al startup-ului de date pentru clienți Segment, cumpărat de Twilio în 2020 pentru 3,2 miliarde de dolari.
Unele dintre lucrurile pe care le-a dezvăluit despre cultura OpenAI nu ar surprinde pe nimeni, dar altele contrazic anumite concepții greșite despre companie. (El nu a putut fi contactat imediat pentru comentarii.)
OpenAI a crescut de la 1.000 la 3.000 de angajați în anul în care el a lucrat acolo, a scris French-Owen. Producătorul de modele LLM are cu siguranță motive pentru o astfel de recrutare accelerată: este cel mai rapid produs pentru consumatori din istorie, iar concurența nu stă pe loc. În martie, compania a anunțat că ChatGPT are peste 500 de milioane de utilizatori activi, iar numărul continuă să crească.
„Totul se strică atunci când crești atât de repede: modul de comunicare intern, structurile de raportare, cum lansezi produse, cum gestionezi și organizezi oamenii, procesele de angajare etc.”, a scris French-Owen.
Ca într-un mic startup, angajații sunt încurajați să-și pună ideile în aplicare cu foarte puțină birocrație. Dar asta înseamnă și muncă dublă: „Cred că am văzut o jumătate de duzină de biblioteci pentru lucruri precum gestionarea cozilor sau buclele agenților”, a dat el ca exemplu.
Nivelul de competență în programare variază mult: de la ingineri experimentați veniți de la Google, care scriu cod capabil să susțină un miliard de utilizatori, până la proaspăt doctoranzi care nu pot face asta. Combinația cu flexibilitatea limbajului Python înseamnă că depozitul central de cod, așa-numitul „monolit back-end”, este „un fel de groapă de gunoi”, a descris el.
Lucrurile se strică frecvent sau pot dura mult timp să ruleze. Totuși, managerii de inginerie sunt conștienți de aceste probleme și lucrează la îmbunătățiri, a mai scris el.
OpenAI pare că încă nu realizează pe deplin că este o companie uriașă — funcționează aproape integral pe Slack. Se simte foarte mult ca Meta în primii ani de Facebook, cu filozofia „mișcă-te repede și strică lucruri”. Compania este plină de angajați veniți chiar de la Meta.
French-Owen povestește cum echipa sa, formată din aproximativ opt ingineri, patru cercetători, doi designeri, doi oameni de go-to-market și un product manager, a construit și lansat Codex în doar șapte săptămâni, de la zero până la lansare, aproape fără somn.
Dar lansarea a fost magică: doar prin simpla pornire au obținut imediat utilizatori. „N-am mai văzut un produs să aibă atât de multă tracțiune imediat doar pentru că apare într-o bară laterală din stânga, dar asta e puterea ChatGPT”, a spus el.
ChatGPT este o companie extrem de monitorizată, ceea ce a dus la o cultură a secretului, în încercarea de a limita scurgerile de informații către public. În același timp, compania urmărește cu atenție tot ce se întâmplă pe X (fostul Twitter). Dacă o postare devine virală, OpenAI o vede și, posibil, reacționează. „Un prieten de-al meu a glumit: «compania asta funcționează pe baza stării de spirit de pe Twitter»”, a scris el.
French-Owen susține că cea mai mare concepție greșită despre OpenAI este că nu ar fi suficient de preocupată de siguranță. Mulți specialiști în siguranța AI, inclusiv foști angajați OpenAI, au criticat procesele sale.
În realitate, există preocupări pentru riscurile teoretice pentru umanitate, dar în interior accentul cade mai mult pe siguranța practică: „discurs instigator la ură, abuzuri, manipularea părtinirii politice, fabricarea de arme biologice, auto-vătămare, injection prompts”, a scris el.
OpenAI nu ignoră impacturile potențiale pe termen lung. Există cercetători dedicați acestor riscuri și compania știe că sute de milioane de oameni folosesc modelele LLM pentru orice, de la sfaturi medicale până la terapie.
Guvernele urmăresc. Concurenții urmăresc (și OpenAI îi urmărește, la rândul său). „Miza pare foarte mare”, a concluzionat el.