Глоссарий терминов искусственного интеллекта

Чёткие определения ключевых понятий ИИ, машинного обучения и нейронных сетей от экспертов Mirexa

А Б В Г Д Е З К М Н О П Р С Т У Ф Х Э C D F G H L M N O P R S T U

А

Агент (Agent)
В контексте ИИ — программная система, воспринимающая состояние окружающей среды и предпринимающая действия для достижения заданных целей. Агенты могут быть реактивными (действуют на основе текущего состояния) или обладать памятью и планированием.
Алгоритм (Algorithm)
Пошаговая инструкция для решения задачи или обработки данных. В машинном обучении алгоритм определяет способ обучения модели на данных — например, градиентный спуск, случайный лес или метод опорных векторов.
Аннотирование данных (Data Annotation)
Процесс разметки обучающих данных: присвоение метаданных изображениям, аудиофайлам или тексту. Высококачественная аннотация критична для обучения моделей с учителем (supervised learning).
Атрибуция признаков (Feature Attribution)
Методы объяснимого ИИ (XAI), определяющие вклад каждого входного признака в предсказание модели. Примеры: SHAP (SHapley Additive exPlanations) и LIME (Local Interpretable Model-agnostic Explanations).

Б

Батч-нормализация (Batch Normalization)
Техника регуляризации нейронных сетей, нормализующая входные данные каждого слоя в пределах мини-батча. Ускоряет обучение, снижает чувствительность к инициализации весов и оказывает слабый регуляризирующий эффект.
Бинарная классификация (Binary Classification)
Задача машинного обучения с двумя классами выходных значений (положительный/отрицательный, да/нет). Типичные алгоритмы: логистическая регрессия, SVM, бинарное дерево решений.

В

Векторное пространство (Vector Space / Embedding Space)
Математическое пространство, в котором объекты (слова, изображения, пользователи) представлены как числовые векторы. Семантически близкие объекты располагаются рядом в этом пространстве. Основа работы word2vec, GloVe и современных языковых моделей.
Вероятностные модели (Probabilistic Models)
Модели, описывающие неопределённость в данных и предсказаниях в терминах вероятностных распределений. Включают байесовские сети, скрытые марковские модели (HMM) и вариационные автоэнкодеры (VAE).

Г

Генеративно-состязательная сеть (GAN — Generative Adversarial Network)
Архитектура глубокого обучения, состоящая из генератора (создаёт синтетические данные) и дискриминатора (отличает реальные данные от сгенерированных). Генератор обучается обманывать дискриминатор, что приводит к генерации всё более реалистичных данных.
Градиентный спуск (Gradient Descent)
Итерационный алгоритм оптимизации, минимизирующий функцию потерь путём последовательного смещения параметров модели в направлении, противоположном градиенту. Варианты: стохастический (SGD), мини-батч и адаптивные методы (Adam, RMSprop).

Д

Дообучение (Fine-tuning)
Процесс адаптации предобученной модели к конкретной задаче путём дополнительного обучения на небольшом специализированном датасете. Позволяет использовать общие знания крупных моделей (GPT, BERT) для узких прикладных задач.
Дропаут (Dropout)
Техника регуляризации нейронных сетей, при которой случайные нейроны «отключаются» (их выходы обнуляются) во время каждого прохода обучения. Снижает переобучение, вынуждая сеть не полагаться на отдельные нейроны.

З

Затухание градиента (Vanishing Gradient)
Проблема обучения глубоких нейронных сетей: градиенты, распространяясь через множество слоёв в процессе обратного распространения ошибки, становятся чрезвычайно малыми, что делает обучение ранних слоёв неэффективным. Решения: ReLU-активации, нормализация, LSTM, residual-соединения.

К

Кластеризация (Clustering)
Задача обучения без учителя: разбиение набора данных на группы (кластеры) так, чтобы объекты внутри одного кластера были более похожи друг на друга, чем на объекты из других кластеров. Алгоритмы: K-means, DBSCAN, иерархическая кластеризация.
Компьютерное зрение (Computer Vision, CV)
Раздел ИИ, занимающийся разработкой алгоритмов для обработки и интерпретации визуальной информации (изображений, видео). Включает задачи классификации, детекции, сегментации, трекинга и 3D-реконструкции.
Кросс-валидация (Cross-Validation)
Метод оценки обобщающей способности ML-модели. Датасет делится на K равных частей (фолдов); модель обучается на K-1 фолдах и тестируется на оставшемся. Процедура повторяется K раз. Наиболее распространена k-кратная (k-fold) кросс-валидация.

М

Машинное обучение (Machine Learning, ML)
Подраздел искусственного интеллекта, изучающий алгоритмы, которые автоматически улучшают своё поведение на основе опыта (данных). В отличие от программирования с явными правилами, ML-системы учатся извлекать закономерности из данных.
Мультимодальные модели (Multimodal Models)
Модели ИИ, способные одновременно обрабатывать несколько типов входных данных — текст, изображения, аудио, видео. Примеры: GPT-4V, Gemini, Claude 3. Позволяют решать задачи типа «опишите это изображение» или «найдите ответ на основе таблицы и текста».

Н

Нейронная сеть (Neural Network, NN)
Вычислительная модель, вдохновлённая биологическими нейронными сетями. Состоит из слоёв взаимосвязанных узлов (нейронов), передающих взвешенные сигналы. При достаточной глубине и ширине способна аппроксимировать произвольные функции (теорема универсальной аппроксимации).

О

Обработка естественного языка (NLP — Natural Language Processing)
Раздел ИИ на пересечении лингвистики и компьютерных наук. Включает задачи понимания и генерации текста, перевода, классификации, извлечения информации и диалоговых систем.
Обучение с подкреплением (Reinforcement Learning, RL)
Парадигма машинного обучения, в которой агент учится принимать решения, взаимодействуя со средой и получая вознаграждения или штрафы. Используется в игровых ИИ (AlphaGo), роботике, управлении и файн-тюнинге языковых моделей (RLHF).
Обучение с учителем (Supervised Learning)
Тип машинного обучения, при котором модель обучается на размеченном датасете (каждый пример имеет правильный ответ — метку). Цель — научиться предсказывать метки для новых, невиданных примеров.
Объяснимый ИИ (XAI — Explainable AI)
Совокупность методов и практик, направленных на повышение прозрачности и интерпретируемости решений, принимаемых системами ИИ. Критически важен для применения ИИ в медицине, финансах и правоохранительной сфере.
Переобучение (Overfitting)
Ситуация, когда модель слишком хорошо подстроилась под обучающую выборку, запомнив шум вместо закономерностей, что приводит к плохой обобщающей способности. Решения: регуляризация, дропаут, уменьшение модели, увеличение датасета.

Р

Рекуррентные нейронные сети (RNN)
Класс нейросетей с обратными связями, позволяющими сохранять «память» о предыдущих входных данных. Использовались для обработки последовательностей (текст, аудио, временные ряды) до появления трансформеров. LSTM и GRU — улучшенные варианты, решающие проблему затухающего градиента.

С

Свёрточные нейронные сети (CNN — Convolutional Neural Networks)
Класс нейросетей, специализированных для обработки данных с пространственной структурой (изображения, аудио). Используют операцию свёртки для извлечения локальных признаков. Основа современного компьютерного зрения. Известные архитектуры: ResNet, VGG, EfficientNet.
Смещение (Bias в ML)
В контексте алгоритмической предвзятости — систематические ошибки в предсказаниях модели, возникающие из-за несбалансированных обучающих данных, неверных предположений или дискриминационных паттернов в исторических данных. Приводит к несправедливым результатам для определённых групп.

Т

Токенизация (Tokenization)
Процесс разбиения текста на элементарные единицы (токены) — слова, подслова или символы. Является первым этапом обработки текста в NLP-конвейерах. Большинство современных LLM используют BPE (Byte Pair Encoding) или SentencePiece токенизацию.
Трансформер (Transformer)
Архитектура нейронной сети, предложенная в статье «Attention Is All You Need» (Vaswani et al., 2017). Основана на механизме self-attention, позволяющем моделировать долгосрочные зависимости в последовательностях без рекуррентности. Фундаментальная архитектура всех современных LLM (GPT, BERT, T5, Llama).

L

LLM (Large Language Model)
Большая языковая модель — нейронная сеть с миллиардами параметров, обученная на огромных текстовых корпусах для предсказания следующего токена. Способны генерировать связный текст, отвечать на вопросы, переводить и программировать. Примеры: GPT-4, Claude 3.5, Llama 3, Gemini.
RLHF (Reinforcement Learning from Human Feedback)
Метод дообучения языковых моделей с использованием обратной связи от людей. Модель вознаграждается за ответы, которые люди оценивают выше. Используется для выравнивания поведения LLM с человеческими предпочтениями (ChatGPT, Claude).

R / RAG

RAG (Retrieval-Augmented Generation)
Архитектурный паттерн, сочетающий генеративную языковую модель с системой поиска по внешней базе знаний. Перед генерацией ответа система извлекает релевантные документы и передаёт их в контекст модели. Снижает галлюцинации и позволяет работать с актуальными данными.