OpenAI – idei din mers

  • Post category:AI
  • Post comments:0 Comments

După câteva săptămani bune de utilizare frenetică a OpenAI / ChatGPT, incet , încet se conturează lucruri:

Inteligenta artificială nu e chiar așa simplu de folosit – așa cum vinde reclama. Întreabă-mă orice, zice ChatGPT, și da putem întreba orice, dar răspunsul poate fi în mare masură dezamagitor. Se dovedește că jumatate din succesul răspunsului e condiționat de intrebarea bine pusă. Asta înseamnă context, detalii, condiții specifice, amănunte detaliate pe subiect furnizate în cadrul întrebării, lucruri pe care numai un avizat în domeniu respectiv le stăpânește. Așa a apărut industria prompterului – prin prompt înțelegând totalitatea intrebarii furnizate inteligenței artificiale în vederea răspunsului.

Și pentru că nu toți sunt specialiști în orice, au apărut website-uri, tutoriale, e-book-uri, colecții de promptere, free sau pe bani, o întreagă industria de prompturi, pe principiul cererea generează afacerea.

Functionează ? Se pare că da.
Au aparut prompturi pentru creație de artă digitală, advertising, strategii publicitare, marketing, cod de programare și multe altele, gata pregatite să dea mură-n gură unui potențial utilizator dornic de rezultate multe fără prea mare efort. Deseori apar imagini digitale de mare efect și ai impresia e că dacă schimbi două trei fraze cu IA obții rezultatul – nimic mai fals. Rezultate profesionale se obțin în urma rafinării unei interogări până la un nivel care poate presupune ore de muncă – deci nu-i chiar așa de simplu. În plus și costă.

IA nu poate fi mai inteligentă decât suma de cunoștințe de care dispune și pe care la poate combina/manipula/prezenta utilizatorului. Deci acel, „orice” din indemnul deja aproape iconic, -întreabă-mă orice- e o exagerare. Dacă cunoștintele cu care a fost hranită/antrenată/instruită inteligența artificială nu sunt complete sau sunt eronate, răspunsul nu poate fi decât greșit, cf. vechiului principiu GIGO (garbage in, garbage out), gunoi introduci, gunoi obții.
După aproape un miliard de dolari decapitalizare pe bursă, Google a învățat de ce :-).

Baza de cunoștinte a ChatGPT se oprește undeva în septembrie 2021. Dar acoperă domenii precum programare, marketing, știinte fundamentale, artă, literatură, sport, inginerie, filmografie, politologie, filozofie, design si multe altele.
Cât de corecte și complete sunt aceste informații, atât de corecte și complete vor fi și răspunsurile.

Remarcă: deocamdată IA sintetizează și prezintă în limbaj uman informații din baza de date și încă NU face judecăți de valoare relativ la acele cunoștiințe.

Ceea ce duce la urmatoare întrebare: cât de etică e folosirea acestor informații ? De ex. milioane de imagini (free ?) culese de pe web, sunt combinate în produse grafice derivative fără acordul proprietarilor și prezentate drept creații originale. Și asta e valabil și pentru articole de presă, studii, opere de arta, creații muzicale etc.
E ok ?
Deocamdată pâna la dezmetecirea creatorilor de conținut, da e ok. Dar ceva se pregătește :-). Filozoful Noam Chomsky părintele lingvisticii moderne și profesor emerit la MIT zice: „ChatGPT is a tool for plagiarism and way to avoid education”, ceea ce are o oarecare valoare de adevar.

According to Noam Chomsky, the use of ChatGPT is basically a high-tech plagiarism and a way of avoiding learning. He believes that the college essay died years ago and it’s a mug’s game in which a student sends me an electronic file that, when open, spills out a jumble of words that the sender propounds to be a finished paper” — to which, presumably, the output of a machine-learning system would actually be far preferable.

.O observație. ChatGPT primește acum întrebări intr-un un ritm amețitor probabil mii, zeci de mii pe secundă, sau chiar mai mult. În mod sigur aceste întrebări sunt clasificate, stocate împreună cu răspunsurile generate, analizate și prelucrate în vedere lărgirii bazei de cunoștințe. Și având în vedere că avem de a face cu – până la urmă – o confruntare între inteligența umană cu cea artificială, unele întrebari sunt tendentioase, malițioase, manipulative, întrebări cu care inteligența artificială interacționează și învață !, no matter how creatorii vor dori să impună oarece cenzură până la urmă. Din acest punct de vedere BARD-ul de la Google a cam pierdut startul, dar nu-i duc grija, își revine el.

Și încă una. De la filozoful grec Anaximene avem teoria saltului calitativ – acumulările cantitative duc la salturi calitative. Spectaculos, IA ar putea adeveri zicerea asta, mai repede decât credem, sau chiar decât ne-am dori. 🙂

Disclaimer. Datorită vitezei cu care evoluează lucrurile în domeniu s-ar putea ca unele afirmații să nu mai fie chiar exacte, sau pot fi depășite, așa că luați-le cu un gram de sare și piper! 🙂

Lasă un răspuns

Acest site folosește Akismet pentru a reduce spamul. Află cum sunt procesate datele comentariilor tale.