Глоссарий терминов ИИ: понимание GPT, нейронных сетей и многого другого

Опубликовано: 2023-06-01

Вы заинтригованы возможностями ИИ, но вам сложно разобраться со всем техническим жаргоном? Наш глоссарий ИИ поможет вам понять ключевые термины и понятия.

ИИ постоянно развивается и расширяется, каждую неделю появляются новые разработки и приложения, и кажется, что количество жаргона, за которым нужно следить, растет так же быстро.

В общем, это может быть немного ошеломляюще, поэтому мы составили список понятий и терминов, которые помогут вам лучше понять дивный новый мир искусственного интеллекта.

Если вы хотите получать больше нашего контента об искусственном интеллекте и автоматизации на свой почтовый ящик, обязательно подпишитесь на нашу регулярную рассылку.


Искусственный интеллект (ИИ)

ИИ относится к созданию интеллектуальных машин, способных выполнять сложные задачи, которые обычно требуют интеллекта человеческого уровня, таких как визуальное восприятие, распознавание речи, принятие решений и языковой перевод. Системы искусственного интеллекта можно научить обучаться и улучшать свою производительность с течением времени, что позволит им выполнять более сложные задачи с большей эффективностью и точностью.

Глубокое обучение

Глубокое обучение относится к методам обучения нейронных сетей с более чем одним уровнем, каждый из которых представляет разные уровни абстракции. Обычно эти глубокие сети обучаются на больших наборах данных, чтобы делать прогнозы или принимать решения относительно данных.

Нейронная сеть с одним слоем может делать приблизительные прогнозы, но дополнительные слои могут помочь повысить точность — каждый слой опирается на предыдущий для оптимизации и уточнения прогнозов.

Алгоритмы глубокого обучения очень эффективны при обработке сложных и неструктурированных данных, таких как изображения, аудио и текст, и позволили добиться значительных успехов в широком спектре приложений, таких как обработка естественного языка, распознавание речи и системы распознавания изображений, которые включают распознавание лиц. , беспилотные автомобили и т. д.

Встраивание

Встраивание в контексте обработки естественного языка (NLP) — это рецепт превращения текста переменной длины в набор чисел фиксированной длины. Обычно этот набор чисел в каком-то смысле сохраняет семантическое значение — например, набор чисел для «собака» и «животное» будет близок друг к другу в математическом смысле. Это позволяет эффективно обрабатывать текст алгоритмами НЛП.

Сети кодера и декодера

Это типы архитектур глубоких нейронных сетей, задачей которых является преобразование данного ввода, скажем, текста, в числовое представление, такое как набор чисел фиксированной длины (кодировщик), а также преобразование этих чисел обратно в желаемый результат (декодер). ).

Они очень часто используются в задачах обработки естественного языка, таких как машинный перевод.

Тонкая настройка

Процесс адаптации предварительно обученной модели к конкретной задаче путем ее обучения на новом наборе данных. Эта модель сначала обучается на большом общем наборе данных, а затем на меньшем, более конкретном наборе данных, связанном с задачей. Таким образом, модель может научиться распознавать более тонкие закономерности в данных, характерных для задачи, что приводит к повышению производительности.

Точная настройка может сэкономить время и ресурсы за счет использования общих моделей вместо обучения новых с нуля, а также может снизить риск переобучения, когда модель очень хорошо изучила особенности небольшого обучающего набора, но не может этого сделать. обобщить на другие данные.

Генеративно-состязательные сети (GAN)

Класс алгоритмов искусственного интеллекта, используемых в неконтролируемом машинном обучении, в котором две нейронные сети конкурируют друг с другом. GAN состоят из двух частей: модели генератора, которая обучена генерировать новые примеры правдоподобных данных, и модели дискриминатора, которая пытается классифицировать примеры как реальные данные или поддельные (сгенерированные) данные. Затем две модели конкурируют друг с другом до тех пор, пока дискриминатор не станет хуже различать реальные и поддельные данные и не начнет классифицировать поддельные данные как настоящие.

Генеративный ИИ

Тип искусственного интеллекта, который может создавать разнообразный контент, включая текст, изображения, видео и компьютерный код, путем выявления закономерностей в большом количестве обучающих данных и создания уникальных выходных данных, напоминающих исходные данные. В отличие от других форм ИИ, основанных на правилах, алгоритмы генеративного ИИ используют модели глубокого обучения для создания новых выходных данных, которые не запрограммированы явно и не определены заранее.

Генеративный ИИ способен создавать очень реалистичный и сложный контент, имитирующий человеческое творчество, что делает его ценным инструментом для широкого спектра приложений, таких как создание изображений и видео, обработка естественного языка и сочинение музыки. Примеры включают недавние достижения, такие как ChatGPT для текста и DALL-E и Midjourney для изображений.

Генеративный предварительно обученный преобразователь (GPT)

Генеративные предварительно обученные преобразователи, или GPT, представляют собой семейство моделей нейронных сетей, обученных сотням миллиардов параметров на массивных наборах данных для создания текста, похожего на человеческий. Они основаны на архитектуре преобразователя, представленной исследователями Google в 2017 году, которая позволяет моделям лучше понимать и применять контекст, в котором используются слова и выражения, и выборочно обращать внимание на разные части ввода, сосредотачиваясь на релевантных словах или фразах, которые он воспринимается как более важный для результата. Они способны генерировать длинные ответы, а не только следующее слово в последовательности.

Семейство моделей GPT считается на сегодняшний день самыми большими и сложными языковыми моделями. Обычно они используются для ответов на вопросы, обобщения текста, создания кода, разговоров, историй и многих других задач обработки естественного языка, что делает их хорошо подходящими для таких продуктов, как чат-боты и виртуальные помощники.

В ноябре 2022 года OpenAI выпустила ChatGPT, чат-бот, построенный на основе GPT-3.5, который покорил мир, и все стекались, чтобы попробовать его. Ажиотаж реален: недавние достижения в области GPT сделали эту технологию не только применимой для бизнес-среды, такой как обслуживание клиентов, но и на самом деле трансформирующей.

Галлюцинации

Прискорбное, но хорошо известное явление в больших языковых моделях, когда система ИИ дает правдоподобный ответ, который фактически неверен, неточен или бессмыслен из-за ограничений в своих обучающих данных и архитектуре.

Обычный пример: когда модели задают фактический вопрос о чем-то, чему она не обучалась, и вместо того, чтобы сказать «я не знаю», она что-то придумывает. Облегчение проблемы галлюцинаций является активной областью исследований, и мы всегда должны помнить об этом при оценке отклика любой большой языковой модели (LLM).

Большая языковая модель (LLM)

LLM — это тип нейронной сети, способной генерировать текст на естественном языке, аналогичный тексту, написанному людьми. Эти модели обычно обучаются на массивных наборах данных, содержащих сотни миллиардов слов из книг, статей, веб-страниц и т. д., и используют глубокое обучение для понимания сложных закономерностей и взаимосвязей между словами для создания или прогнозирования нового контента.

В то время как традиционные алгоритмы NLP обычно рассматривают только непосредственный контекст слов, LLM рассматривают большие объемы текста, чтобы лучше понять контекст. Существуют различные типы LLM, в том числе такие модели, как GPT OpenAI.

Агенты LLM (например, AutoGPT, LangChain)

Сами по себе LLM принимают текст в качестве входных данных и предоставляют больше текста в качестве выходных данных. Агенты — это системы, построенные на основе LLM, которые дают им возможность принимать решения, работать автономно, а также планировать и выполнять задачи без вмешательства человека. Агенты работают, используя возможности LLM для преобразования языковых инструкций высокого уровня в конкретные действия или код, необходимые для их выполнения.

В настоящее время наблюдается взрыв интереса к Агентам. Такие инструменты, как AutoGPT, позволяют использовать интересные приложения, такие как «исполнители списка задач», которые принимают список задач в качестве входных данных и фактически пытаются выполнять задачи за вас.

Машинное обучение (МО)

Подобласть ИИ, которая включает разработку алгоритмов и статистических моделей, которые позволяют машинам постепенно улучшать свою производительность в конкретной задаче без явного программирования для этого. Другими словами, машина «учится» на данных, и чем больше она обрабатывает данных, тем лучше она делает прогнозы или выполняет определенные задачи.

Существует три основных типа машинного обучения: обучение с учителем, обучение без учителя и обучение с подкреплением.

  • Обучение с учителем — это подход к машинному обучению, в котором используются помеченные наборы данных, предназначенные для обучения алгоритмов классификации данных или точного прогнозирования результатов. Например, если вы предоставите набор размеченных изображений кошек и собак, модель сможет предсказать новые неразмеченные изображения кошек и собак;
  • Неконтролируемое обучение ищет необнаруженные шаблоны в наборе данных без ранее существовавших меток или специального программирования и с минимальным человеческим контролем;
  • Обучение с подкреплением включает в себя обучение модели принимать решения на основе обратной связи с окружающей средой. Он учится предпринимать действия, которые максимизируют сигнал вознаграждения, например, выигрывать игру или выполнять задание.

Обработка естественного языка (NLP)

НЛП — это ветвь ИИ, которая фокусируется на взаимодействии между человеческим языком и компьютерами. Он сочетает основанное на правилах моделирование человеческого языка со статистическими моделями, машинным обучением и моделями глубокого обучения, обычно обучаемыми с использованием больших объемов данных, которые позволяют компьютерам обрабатывать, понимать и генерировать человеческий язык.

Его приложения предназначены для анализа, понимания и генерации человеческого языка, включая текст и речь. Некоторые распространенные задачи НЛП включают языковой перевод, анализ настроений, распознавание речи, классификацию текста, распознавание именованных объектов и суммирование текста.

Нейронные сети

Нейронные сети — это область машинного обучения, предложенная в 1944 году двумя исследователями из Чикаго, Уорреном Маккалоу и Уолтером Питтсом, которая смоделирована по образцу структуры человеческого мозга. Он состоит из слоев взаимосвязанных узлов или нейронов, которые обрабатывают и анализируют данные, чтобы делать прогнозы или принимать решения: каждый слой получает входные данные от узлов предыдущего слоя и производит выходные данные, которые передаются узлам следующего слоя. Затем последний слой выводит результаты.

Они использовались для широкого спектра приложений, включая распознавание изображений и речи, обработку естественного языка и прогнозное моделирование.

Быстрый инжиниринг

Подсказка — это набор инструкций, написанных в виде текста или кода, который вы предоставляете в качестве входных данных для LLM, чтобы получить значимые выходные данные, и может быть таким же простым, как вопрос. Разработка подсказок — это умение (или искусство, как утверждают некоторые) создавать эффективные подсказки, которые обеспечат наилучший результат для любой поставленной задачи. Это требует понимания того, как работают большие языковые модели (LLM), данных, на которых они обучаются, а также их сильных и слабых сторон.

Обучение с подкреплением на основе обратной связи с человеком (RLHF)

RLHF относится к процессу использования явной обратной связи с человеком для обучения модели вознаграждения в системе обучения с подкреплением. В контексте LLM это могут быть люди, ранжирующие выходные данные LLM и выбирающие ответы, которые они предпочитают — затем это используется для обучения другой нейронной сети, называемой моделью вознаграждения, которая может предсказать, будет ли данный ответ желательным для пользователя. люди. Затем модель вознаграждения используется для точной настройки LMM для получения результатов, которые лучше соответствуют человеческим предпочтениям.

Эти методы считаются очень важным шагом в развитии LLM, таких как ChatGPT, которые добились прорыва в своих возможностях.

Трансформер

Преобразователь — это тип архитектуры глубокой нейронной сети, состоящий из нескольких компонентов кодировщика и декодера, объединенных таким образом, чтобы обеспечить возможность обработки последовательных данных, таких как естественный язык и временные ряды.


Это лишь некоторые из наиболее распространенных терминов в области ИИ, с которыми вы, вероятно, столкнетесь. Несомненно, глоссарии, подобные этому, всегда будут постоянным проектом — по мере того, как технология продолжает развиваться, будут появляться новые термины и идеи. Но на данный момент, поняв эти концепции, вы можете создать прочную основу, которая поможет вам идти в ногу с последними разработками.

Фин лист ожидания