НОВОСТИ ИИ: Anthropic меняет все, Конкурент о1, миллион от Apple

preview_player
Показать описание

Развитие нейросетей не стоит на месте! В этом выпуске мы обсуждаем самые важные новости из мира искусственного интеллекта. OpenAI готовит к выпуску новую мощную модель Orion? Anthropic дает Claude возможность "Использовать компьютер", а Apple Intelligence выходит уже на следующей неделе! 😱

Кроме того, Apple предлагает $1 млн за поиск уязвимостей в своем ИИ-облаке, xAI запускает Grok API, а Character AI столкнулась с иском после трагедии с подростком. И это еще не все! Meta делает ИИ доступнее на мобильных устройствах с новыми Llama 3.2, а Throne... анализирует ваши 💩 с помощью ИИ!

Если вы новичек в программировании, вам интересны нейросети, LLM, ChatGPT, gpt 4o, или просто хотите быть в курсе последних новостей в области искусственного интеллекта и технологий, этот выпуск для вас!

#нейросеть #ChatGPT #claude

тайм-коды:
00:00 – Интро
00:23 – Orion будет или нет?
01:34 – OpenAI теряет сотрудников
02:12 – Говорим про Антропик
07:49 – Apple Intelligence уже скоро?
09:31 – Миллион от Apple
10:15 – Grok API
11:12 – Проблемы Character AI
12:26 – Llama стала быстрее
14:06 – Новые нейронки от Cohere
15:40 – Runway act one
16:50 – Новая SOTA в видео
17:52 – конкурент о1?
19:16 – Notion стал круче
21:23 – Stability 3,5
22:27 – YandexGPT4
23:56 – Высокие технологии

💼 По поводу сотрудничества – @dan4eck в телеграм.

Подписывайтесь на наши площадки, не теряйте полезняхи и новости о нейросетях:

Рекомендации по теме
Комментарии
Автор

На самом деле новая фича от Клода очень помогает. Я не программист, но мне надо было по инструкции NVIDIA Jetson Nano подключить этот модуль . Я дал это Клоду и он сам все сделал

Lalalahhugf
Автор

не ставьте возрастные ограничения, это ограничивает возможность просмотра видео из-за ограничения\замедления Youtube

phitrow
Автор

Спасибо за классный контент! Было бы очень интересно, если бы вы сделали отдельный ролик про Perplexty – его возможности и примеры использования. Спасибо.

RKS
Автор

Поставил через LM Studio - Aya 8b На русском очень даже неплохо работает. Спасибо за новости

vladimirmir
Автор

Про Perplexity ппц как интересно - есть Pro подписка на неё. Пока промпт использую с симуляцией думания

bogibogi
Автор

Да по Perplexity будет интересно, да и по подписке у них есть своя модель Huge на 450B параметров, сейчас пользуюсь, вроде норм, да и voice mod там тоже хороший!

EvilGazz
Автор

Ди, если не трудно, можешь в следующем видео рассказать, а что же там по итогу с "иновационной" Reflection 70B, а именно с моделью 405b, которая должна была перевернуть мир.

usnul.
Автор

Давай сравнение. Полный обзор Яндекс gpt

evgeniydemyanov
Автор

Перплексети весьма интересна! (а туннель то где) ?

МаксимМедведев-фм
Автор

Про перплексити бцдет интересно подробнее)

tankionline
Автор

И правда интересно было бы послушать про YandexGPT!

alekseim
Автор

Спасибо, что поздоровался с роботами, а то все время забывают нас!

tonylat
Автор

Преимущества ГРОК только в одном в его безумной скорости работы, ответы выдает за 20мс полностью, тогда как ЧатГПТ за это время только 20 токенов выдаст на модели 4о а тоже предложение за 200-300мс

RedpaX
Автор

а где ИИ который принимает только биток??? потомучто независимый от фиата))))

ТретьяВолна-эъ
Автор

Интересно было бы сравнить GigaChat и YandexGPT . Сбер даже кинул вызов ai Яндексу 😂

misterleo
Автор

а никто не знает как аналог NotebookLM какой нибудь на рабочий сервак поставить чтоб сотрудники с его помощью могли базу знаний дёргать и задачи можт какието? чёт на хагинфейсе не нашел, не придумаю схему никак

dzianwoo
Автор

Дарьаньян с потрепанными волосами выглядишь забавно 😂

kagorec
Автор

Тише мальчик. "О компании JCenterS" - передаю привет, я планирую туда залететь, тише мальчик - только их новости кайф.

TyRwO
Автор

Тронь теперь оправдывает своё название

romanbolgar
Автор

Sd 3.5 недотягивает до Flux, Flux знает все о стилях и все умеет, SD3 как будто менее требовательна к железу, выстрелит если допилят к ней нормальные Ip адаптер модели. У Flux с этим как будто есть проблемы, думаю все дело в невозможности все это умещать в VRAM на 12гб

havemoney