Как работают большие языковые модели искусственного интеллекта (ИИ), часть 1

  • Автор темы Автор темы LeSh1y777
  • Дата начала Дата начала

LeSh1y777

Пользователь
Регистрация
25/9/25
Сообщения
5,682
Репутация
49
Лайки
153
Депозит
-8.95$
Добро пожаловать обратно, мои начинающие кибервоины!

Мы живем на пороге одной из самых захватывающих эпох в истории технологий!

LLM-pic.webp

Искусственный интеллект (ИИ) вот-вот изменит всё, что мы делаем, и сам мир. Это изменение, вероятно, будет более радикальным и значимым, чем изобретение печатного станка или развитие интернета. Поэтому вам необходимо попытаться понять, что и как происходит. Только так вы сможете опередить это цунами и оседлать эту волну, чтобы получить лучшую работу и более высокий доход. Те, кто проигнорирует эту волну, скорее всего, будут смыты на свалку истории.

Имея эту цель в виду, я начал серию статей о том, как большие языковые модели (LLM) работают в сфере искусственного интеллекта.

Под капотом

В основе каждой программы LLM лежит архитектура трансформера — нейронной сети, предназначенной для обработки последовательностей (например, предложений или кода). В отличие от старых моделей, которые обрабатывали слова по одному, трансформеры анализируют целые последовательности параллельно, используя внутреннее внимание . Этот механизм позволяет модели оценивать важность каждого слова в предложении относительно других. Например:

«Хакер взломал маршрутизатор»


Здесь слово «взломанный» тесно связано с «хакером» и «маршрутизатором», игнорируя нерелевантные слова. Именно это понимание контекста делает программы магистратуры по управлению правами (LLM) такими эффективными.

Обучение: насыщение данными​

Магистратура LLM обучается на огромных текстовых корпусах — например, на Википедии, книгах, репозиториях кода и веб-страницах (GPT-3 поглотила 45 ТБ текста!). В ходе обучения:

  1. Токенизация : текст разбивается на фрагменты (токены), которые могут быть словами, подсловами или символами.
  2. Встраивание : токены преобразуются в числовые векторы (например, «маршрутизатор» → [0.24, -1.7, ...]), фиксируя семантические связи. Похожие слова группируются в векторном пространстве.
  3. Предсказание следующего слова : модель обучается, угадывая следующий токен в последовательностях. Правильные догадки укрепляют связи; ошибки корректируют более 175 миллиардов параметров модели (веса/смещения).
Это неконтролируемое предварительное обучение обучает грамматике, фактам и рассуждениям — человеческие ярлыки не нужны.

Генерация текста: цикл вывода​

Когда вы даете задание LLM, вот что происходит под капотом:

  1. Токенизировать входные данные : Ваша подсказка («Объясните хакеру принципы VPN») разделяется на токены.
  2. Процесс через слои:
    • Встраиваемый слой преобразует токены в векторы.
    • Слои-трансформаторы используют внутреннее внимание и сети прямой связи для создания контекста.
    • Выходной слой генерирует распределение вероятностей для следующего токена
  3. Выборка и повторение : модель выбирает следующий токен (например, «VPNs» → «создать»), добавляет его и повторяет процедуру до завершения.
Примечание : Контролируйте выходную случайность с помощью:

  • temperature(выше = креативнее)
  • top-p(ограничивает выборку токенами с высокой вероятностью)

Почему хакерам стоит беспокоиться​

LLM являются умножителями силы :

  • Социальная инженерия : создание убедительных фишинговых писем или поддельных персон.
  • Автоматизация кода : написание скриптов для сканирования, эксплойтов или инструментов (например, «Написание сканера портов Python»).
  • Recon : Составьте сводку утекших документов или технических руководств за считанные секунды.
  • Обфускация : использование LLM для создания полиморфного вредоносного ПО или обхода обнаружения.
Попался : у LLM галлюцинации. Всегда проверяйте результаты, особенно для критически важных операций.

Создайте свою собственную степень магистра права: минималистичная демонстрация​

Хотите обучить нано-LLM? Вот базовый шаблон на Python для начала.

LLM-python.png

Для завершения фразы используется GPT-2. Вы можете заменить её gpt2на более крупные модели (например, gpt-j-6B) и получить сложные результаты.

Будущее: степень магистра права в области наступательной безопасности​

Представлять себе:

  • AI Red Teamers : LLM, которые автономно проверяют сети на наличие слабых мест.
  • Адаптивное вредоносное ПО : код, который переписывает себя с использованием циклов обратной связи LLM.
  • Противодействие LLM-войне : обнаружение дезинформации, генерируемой ИИ, в операциях.
Правило №1 : Никогда не доверяйте LLM слепо. Относитесь к нему как к начинающему хакеру — проверяйте его работу.

Заключение​

LLM — это нейронные сети на стероидах: обученные на данных интернет-масштаба, мастера контекста и бесценные для хакеров. Разберитесь в их архитектуре, используйте их генеративную мощь и будьте в курсе событий, ведь в гонке вооружений ИИ лучшие хакеры адаптируются быстрее всех.

Оставайтесь любопытными. Оставайтесь опасными.
 
хм очень прикольно сделал респект тебе
 
Назад
Сверху Снизу