Все публикации

Llama 3.1: разбор статьи. Часть 10. Factuality & Steerability

AI-школа Евгения Разинкова: как это было (и как будет дальше)

Оптимистичное послание AI-специалистам

Llama 3.1: разбор статьи. Часть 9. Long context & Tool use

Llama 3.1: разбор статьи. Часть 8. Multilinguality & Reasoning

Llama 3.1: разбор статьи. Часть 7. Capabilities: code generation

Llama 3.1: разбор статьи. Часть 6. Post-training data

Llama 3.1: разбор статьи. Часть 5. DPO.

Llama 3.1: разбор статьи. Часть 4. Reward modeling & SFT

Llama 3.1: разбор статьи. Часть 3. Pre-training

Llama 3.1: разбор статьи. Часть 2. Architecture & Scaling laws.

Llama 3.1: разбор статьи. Часть 1.Intro & Data mix

AI: от LLM и дальше. Лекция 3. Evaluation overview

Dropout: универсальный метод регуляризации

AI: от LLM и дальше. Лекция 2.

AI: от LLM и дальше. Лекция 1.

LLM. Лекция 28.

Введение в языковые модели. Лекция 27.

ViT: повышаем точность. Лекция 26.

Трансформер для изображений: vision transformer

Быстрое обнаружение аномалий на изображениях. Лекция 6 по обнаружению аномалий

Трансформер: training best practices

Transformer: интерпретация моделей и функции слоев. Лекция 23.

Transformer: декодер. Лекция 22.