Glosar de termeni AI: înțelegerea GPT, rețelele neuronale și multe altele

Publicat: 2023-06-01

Sunteți intrigat de posibilitățile AI, dar vă este greu să vă familiarizați cu tot jargonul tehnic? Glosarul nostru AI vă va ajuta să înțelegeți termenii și conceptele cheie.

Inteligența artificială evoluează și se extinde în mod constant, cu noi dezvoltări și aplicații care apar în fiecare săptămână – și se simte că cantitatea de jargon cu care trebuie să ții pasul se dezvoltă la fel de repede.

Una peste alta, poate fi un pic copleșitor, așa că am compilat o listă de concepte și termeni pentru a vă ajuta să înțelegeți mai bine noua lume curajoasă a inteligenței artificiale.

Dacă doriți să primiți mai mult din conținutul nostru despre AI și automatizare livrat în căsuța dvs. de e-mail, asigurați-vă că vă abonați la buletinul nostru informativ regulat.


Inteligența artificială (AI)

AI se referă la crearea de mașini inteligente care sunt capabile să îndeplinească sarcini complexe care necesită de obicei inteligență la nivel uman, cum ar fi percepția vizuală, recunoașterea vorbirii, luarea deciziilor și traducerea limbii. Sistemele AI pot fi antrenate să învețe și să-și îmbunătățească performanța în timp, permițându-le să finalizeze sarcini mai complexe cu o mai mare eficiență și precizie.

Invatare profunda

Învățarea profundă se referă la metode de antrenare a rețelelor neuronale cu mai mult de un strat, fiecare strat reprezentând diferite niveluri de abstractizare. De obicei, aceste rețele profunde sunt antrenate pe seturi mari de date pentru a face predicții sau decizii cu privire la date.

O rețea neuronală cu un singur strat poate fi capabilă să facă predicții aproximative, dar straturi suplimentare pot ajuta la îmbunătățirea acurateței - fiecare construindu-se pe stratul anterior pentru a optimiza și rafina predicțiile.

Algoritmii de învățare profundă sunt extrem de eficienți în procesarea datelor complexe și nestructurate, cum ar fi imaginile, sunetul și textul și au permis progrese semnificative într-o gamă largă de aplicații, cum ar fi procesarea limbajului natural, recunoașterea vorbirii și sistemele de recunoaștere a imaginilor, care includ recunoașterea facială. , mașini autonome etc.

Încorporarea

O încorporare în contextul procesării limbajului natural (NLP) este o rețetă pentru transformarea unui text de lungime variabilă într-un set de numere de lungime fixă. De obicei, acest set de numere va păstra sensul semantic într-un anumit sens - de exemplu, setul de numere pentru „câine” și „animal” va fi apropiat unul de celălalt în sens matematic. Acest lucru permite textului să fie procesat eficient de algoritmi NLP.

Rețele de codificator și decodor

Acestea sunt tipuri de arhitecturi de rețele neuronale profunde a căror sarcină este să convertească o intrare dată, să spunem text, într-o reprezentare numerică, cum ar fi un set de numere cu lungime fixă ​​(encoder) și, de asemenea, să convertească aceste numere înapoi la o ieșire dorită (decodor). ).

Ele sunt foarte frecvent utilizate în sarcinile de procesare a limbajului natural, cum ar fi traducerea automată.

Reglaj fin

Procesul de adaptare a unui model pre-antrenat la o sarcină specifică prin antrenamentul pe un nou set de date. Modelul respectiv este mai întâi antrenat pe un set de date mare, general și apoi pe un set de date mai mic, mai specific legat de sarcină - în acest fel, modelul poate învăța să recunoască modele mai nuanțate în datele specifice sarcinii, ceea ce duce la o performanță mai bună.

Reglarea fină poate economisi timp și resurse utilizând modele generale în loc de a le antrena pe altele noi de la zero și, de asemenea, poate reduce riscul de supraadaptare, în cazul în care modelul a învățat extrem de bine caracteristicile unui set de antrenament mic, dar nu poate. pentru a generaliza la alte date.

Rețele adverse generative (GAN)

O clasă de algoritmi AI utilizați în învățarea automată nesupravegheată în care două rețele neuronale concurează între ele. GAN-urile au două părți: un model generator care este antrenat pentru a genera noi exemple de date plauzibile și un model discriminator care încearcă să clasifice exemplele fie ca date reale, fie ca date false (generate). Cele două modele concurează apoi unul împotriva celuilalt până când discriminatorul devine mai rău în a face diferența dintre real și fals și începe să clasifice datele false ca fiind reale.

AI generativ

Un tip de inteligență artificială care poate crea o mare varietate de conținut - inclusiv text, imagini, video și cod de computer - prin identificarea tiparelor în cantități mari de date de antrenament și generarea de rezultate unice care seamănă cu datele originale. Spre deosebire de alte forme de IA care se bazează pe reguli, algoritmii AI generativi folosesc modele de învățare profundă pentru a genera rezultate noi care nu sunt programate sau predefinite în mod explicit.

Inteligența artificială generativă este capabilă să producă conținut extrem de realist și complex care imită creativitatea umană, făcându-l un instrument valoros pentru o gamă largă de aplicații, cum ar fi generarea de imagini și videoclipuri, procesarea limbajului natural și compoziția muzicală. Exemplele includ descoperiri recente, cum ar fi ChatGPT pentru text și DALL-E și Midjourney pentru imagini.

Transformator generativ pre-antrenat (GPT)

Transformatoarele generative pre-antrenate, sau GPT, sunt o familie de modele de rețele neuronale antrenate cu sute de miliarde de parametri pe seturi masive de date pentru a genera text asemănător omului. Ele se bazează pe arhitectura transformatorului, introdusă de cercetătorii Google în 2017, care permite modelelor să înțeleagă și să aplice mai bine contextul în care sunt folosite cuvintele și expresiile și să se ocupe selectiv de diferite părți ale intrării – concentrându-se pe cuvinte sau expresii relevante care este perceput ca fiind mai important pentru rezultat. Sunt capabili să genereze răspunsuri lungi, nu doar cuvântul următor dintr-o secvență.

Familia de modele GPT este considerată cele mai mari și mai complexe modele de limbaj de până acum. Acestea sunt de obicei folosite pentru a răspunde la întrebări, a rezuma text, a genera cod, conversații, povești și multe alte sarcini de procesare a limbajului natural, făcându-le potrivite pentru produse precum chatbot și asistenți virtuali.

În noiembrie 2022, OpenAI a lansat ChatGPT, un chatbot construit pe GPT-3.5, care a luat lumea cu asalt, toată lumea s-a înghesuit să-l încerce. Iar hype-ul este real: progresele mai recente în GPT au făcut chiar că tehnologia nu este fezabilă doar pentru setări de afaceri, cum ar fi serviciul pentru clienți, ci și transformă.

Halucinații

Un fenomen nefericit, dar binecunoscut în modelele de limbaj mari, în care sistemul AI oferă un răspuns plauzibil care este incorect, inexact sau fără sens din cauza limitărilor în datele și arhitectura de antrenament.

Un exemplu obișnuit ar fi atunci când unui model i se pune o întrebare concretă despre ceva pentru care nu a fost instruit și în loc să spună „Nu știu”, va inventa ceva. Atenuarea problemei halucinațiilor este un domeniu activ de cercetare și ceva de care ar trebui să ținem mereu cont atunci când evaluăm răspunsul oricărui model de limbaj mare (LLM).

Model de limbă mare (LLM)

LLM-urile sunt un tip de rețea neuronală capabilă să genereze text în limbaj natural care este similar cu textul scris de oameni. Aceste modele sunt de obicei antrenate pe seturi de date masive de sute de miliarde de cuvinte din cărți, articole, pagini web etc. și folosesc învățarea profundă pentru a înțelege modelele complexe și relațiile dintre cuvinte pentru a genera sau prezice conținut nou.

În timp ce algoritmii tradiționali NLP privesc de obicei doar contextul imediat al cuvintelor, LLM-urile iau în considerare zone mari de text pentru a înțelege mai bine contextul. Există diferite tipuri de LLM, inclusiv modele precum GPT OpenAI.

Agenți LLM (de ex. AutoGPT, LangChain)

Pe cont propriu, LLM-urile iau text ca intrare și oferă mai mult text ca rezultat. Agenții sunt sisteme construite pe baza unui LLM care le oferă agenție să ia decizii, să opereze în mod autonom și să planifice și să execute sarcini fără intervenție umană. Agenții lucrează folosind puterea LLM-urilor pentru a traduce instrucțiunile de limbaj de nivel înalt în acțiunile specifice sau codul necesar pentru a le executa.

În prezent, există o explozie de interes și dezvoltare în agenții. Instrumente, cum ar fi AutoGPT, permit aplicații interesante, cum ar fi „factorii de liste de sarcini”, care vor lua o listă de sarcini ca intrare și vor încerca efectiv să facă sarcinile pentru dvs.

Învățare automată (ML)

Un subdomeniu al IA care implică dezvoltarea de algoritmi și modele statistice care permit mașinilor să-și îmbunătățească progresiv performanța într-o anumită sarcină, fără a fi programate în mod explicit pentru a face acest lucru. Cu alte cuvinte, mașina „învață” din date și, pe măsură ce procesează mai multe date, devine mai bună în a face predicții sau a îndeplini sarcini specifice.

Există trei tipuri principale de învățare automată: învățare supravegheată, învățare nesupravegheată și învățare prin consolidare.

  • Învățarea supravegheată este o abordare de învățare automată care utilizează seturi de date etichetate concepute pentru a antrena algoritmii în clasificarea datelor sau pentru prezicerea cu precizie a rezultatelor. De exemplu, dacă furnizați un set de imagini etichetate cu pisici și câini, un model va putea prezice imagini noi, neetichetate, cu pisici și câini;
  • Învățarea nesupravegheată caută modele nedetectate într-un set de date fără etichete preexistente sau programare specifică și cu supraveghere umană minimă;
  • Învățarea prin consolidare implică antrenarea unui model pentru a lua decizii bazate pe feedback-ul din mediul său. Învață să întreprindă acțiuni care maximizează un semnal de recompensă, cum ar fi câștigarea unui joc sau finalizarea unei sarcini.

Procesarea limbajului natural (NLP)

NLP este o ramură a AI care se concentrează pe interacțiunea dintre limbajul uman și computere. Acesta combină modelarea bazată pe reguli a limbajului uman cu modele statistice, de învățare automată și de învățare profundă, antrenate de obicei folosind cantități mari de date, care permit computerelor să proceseze, să înțeleagă și să genereze limbajul uman.

Aplicațiile sale sunt concepute pentru a analiza, înțelege și genera limbajul uman, inclusiv textul și vorbirea. Unele sarcini comune NLP includ traducerea limbii, analiza sentimentelor, recunoașterea vorbirii, clasificarea textului, recunoașterea entităților numite și rezumarea textului.

Rețele neuronale

Rețelele neuronale sunt un subdomeniu al învățării automate propus în 1944 de doi cercetători din Chicago, Warren McCullough și Walter Pitts, care este modelat după structura creierului uman. Este format din straturi de noduri interconectate, sau neuroni, care procesează și analizează datele pentru a face predicții sau decizii: fiecare strat primește intrări de la nodurile din stratul anterior și produce ieșiri care sunt alimentate către nodurile din stratul următor. Ultimul strat, apoi, scoate rezultatele.

Au fost utilizate pentru o gamă largă de aplicații, inclusiv recunoașterea imaginilor și a vorbirii, procesarea limbajului natural și modelarea predictivă.

Inginerie promptă

Un prompt este un set de instrucțiuni scrise ca text sau cod pe care îl furnizați ca intrare la un LLM pentru a avea rezultate semnificative și poate fi la fel de simplu ca o întrebare. Ingineria promptă este abilitatea (sau arta, ar susține unii) de a crea indicații eficiente care vor produce cele mai bune rezultate posibile pentru orice sarcină dată. Este nevoie de o înțelegere a modului în care funcționează modelele lingvistice mari (LLM), datele pe care sunt instruiți și punctele forte și limitările lor.

Învățare prin consolidare din feedbackul uman (RLHF)

RLHF se referă la procesul de utilizare a feedback-ului uman explicit pentru a antrena modelul de recompensă al unui sistem de învățare prin întărire. În contextul unui LLM, acesta ar putea fi oamenii care clasifică rezultatele LLM și aleg răspunsurile pe care le preferă - aceasta este apoi folosită pentru a antrena o altă rețea neuronală, numită model de recompensă, care poate prezice dacă un anumit răspuns va fi de dorit să oameni. Modelul de recompensă este apoi utilizat pentru a regla fin LMM-ul pentru a produce rezultate care sunt mai bine aliniate cu preferințele umane.

Aceste tehnici sunt considerate a fi un pas de mare impact în dezvoltarea de LLM-uri precum ChatGPT, care au înregistrat progrese inovatoare în capacitățile lor.

Transformator

Un transformator este un tip de arhitectură de rețea neuronală profundă care este alcătuită din mai multe componente de codificator și decodor care sunt combinate astfel încât să permită procesarea datelor secvențiale, cum ar fi limbajul natural și seriile de timp.


Aceștia sunt doar câțiva dintre cei mai des întâlniți termeni din IA pe care probabil îi veți întâlni. Fără îndoială, glosare ca acestea vor fi pentru totdeauna un proiect în derulare – pe măsură ce tehnologia continuă să evolueze, noi termeni și idei vor continua să apară. Dar deocamdată, prin înțelegerea acestor concepte, puteți construi o bază solidă care vă va ajuta să țineți pasul cu cele mai recente evoluții.

Lista de așteptare