Технозаметки Малышева
Новости инноваций из мира искусственного интеллекта. 🤖 Всё об ИИ, ИТ трендах и технологической сингулярности. Бесплатный бот для подписчиков: @ai_gptfreebot автор: @mbmal канал личный. Поддержка: https://pay.cloudtips.ru/p/c8960bbb
Show more2 124
Subscribers
-124 hours
+857 days
+1 35730 days
- Subscribers
- Post coverage
- ER - engagement ratio
Data loading in progress...
Subscriber growth rate
Data loading in progress...
Repost from Метаверсище и ИИще
02:15
Video unavailableShow in Telegram
Это видео я хотел прикрепить к посту про то, что Lionsgate заключила сделку с Runway.
Но забыл.
Исправляюсь. Это картинки из Флюкса+Лоры, присунутые в Runway. В большом количестве.
На реддите отчаянно ищут блох - зубы кривые, башка большая, тело маленькое..
Стадия гнев. Скоро депрессия и принятие.
Обратите внимание, ничего (почти) не кипит, это вам не AnimDiff, это video генерация
Заберите девочку и скормите ея в video2video. Она и так хороша, но можно будет снимать сериалы и накидывать на них скины: аниме, пластилин, киберпанк..
И тут мне пришла в голову идея выпить за модный эмоциональный интеллект.
Берем актеров и студентов актерских вузов, курсов, тусовок. Размечаем датасет. Тут радость, тут грусть, тут нереальное сопререживание, тут чудовищная эмпатия.
Дальше пишем промпты. Точнее пишем, что надо выдавить из кожаного зрителя, а chatGPT или Жан Клод напишет оптимальный промпт для генерации.
Ну, за эмоциональный интеллект, которые плавно приватизирован искусственным интеллектом.
@cgevent
rapidsave_com_the_synthetic_actress_is_she_almost_here_2yy5mqrp8jpd1.mp433.40 MB
👍 3
Photo unavailableShow in Telegram
ИИ в ИБ - на примере защиты веб сайта
Провёл тут небольшое упражнение.
Берём простой сайт, буквально лэндинг с чат-ботом, запускаем и смотрим логи.
В логах сразу видим разных ботов и прочие хакер-сканеры. Буквально через пару минут они к вам придут, если не быстрее.
Но у нас же ИБ паранойя, - начинаем думать что бы прикрыть в первую очередь своими силами.
Security Hardening, - есть такой базовый термин - настроить то, что уже есть под рукой или взять open source.
Берём какой-нибудь более менее бесплатный внешний сканер (или платный в режиме промо), смотрим что же у нас не так.
Получаем на почту отчет, - в моём примере он что-то в размере 5 средних и 4 не страшных уязвимостей нашел и еще рекомендации дал WAF поднять и еще по мелочи.
Берём этот отчёт и кормим Sonnet 3.5 вместе с конфигом nginx! тут важно, чтобы он не нагалюцинировал что-то, что порушит ваш текущий конфиг!
И получаем на выходе новый исправленный конфиг и еще описание шагов по установке WAF и настройке ufw и т.д.
Получается можно очень быстро поднять уровень безопасности своей веб инфраструктуры без привлечения вообще никого за несколько десятков тысяч токенов, - т.д. даром.
#securetyhardening #security #manual
———
@tsingular
🔥 3👍 2✍ 1
Repost from Machinelearning
⚡️ Qwen2.5 Family: Релиз Qwen2.5, Qwen2.5-Coder и Qwen2.5-Math.
Команда разработки Qwen (Alibaba Group) опубликовала большой релиз нового поколения моделей - Qwen2.5, специализированные модели: Qwen2.5-Coder, Qwen2.5-Math, их инструктивные и квантованные версии, анонсированы закрытые Qwen-Plus и Qwen-Turbo.
Вместе с релизом нового поколения 2.5 в отрытый доступ опубликована Qwen2-VL-72B-Instruct предыдущего поколения.
▶️ Qwen2.5
В дополнение к традиционным вариантам с 0,5-1,5-7-72 млрд параметров, Qwen2.5 предлагает две новые модели среднего размера 14 млрд и 32 млрд параметров и компактную модель 3 млрд параметров.
Qwen2.5 обучались на увеличенном и улучшенном наборе данных размером в 18 трлн токенов.
Значительно расширены знания моделей: возможности в области программирования,
усовершенствованы математические способности Qwen2.5, повышено соответствие ответов модели предпочтениям человека: следование инструкциям, генерация длинных текстов (до 8 тыс. токенов), понимание структурированных данных и генерация структурированных выводов (в частности, JSON).
Список моделей:
🟢Qwen2.5: 0.5B, 1.5B, 3B, 7B, 14B, 32B, 72B;
🟢Qwen2.5-Instruct: 0.5B, 1.5B, 3B, 7B, 14B, 32B, 72B;
🟢Qwen2.5-Instruct: все варианты в форматах GPTQ, AWQ, GGUF.
В дополнение к этим моделям открыт доступ по API для флагманских моделей: Qwen-Plus и Qwen-Turbo через Model Studio.
▶️ Qwen2.5 Coder
Qwen2.5-Coder доступна в трех размерах: 1,5 млрд, 7 млрд и 32 млрд параметров (последняя появится в ближайшее время). Обновление состоит из двух основных улучшений: больше объем обучающих данных и расширение возможностей программирования в общих задачах и в математике.
Модели обучались на массиве данных объемом 5,5 триллиона токенов, включающем исходный код, данные для сопоставления текста и кода и синтетические данные.
Qwen2.5-Coder поддерживает до 128 тысяч токенов контекста, знает 92 языка программирования и выполняет операции по генерации кода, автодополнению и исправлению кода.
Qwen2.5-Coder-Instruct имеет способность к обобщению, знает более 40 языков программирования, справляется с задачами, связанными с логическим мышлением в коде, и показывает высокие результаты в задачах, связанных с математическим мышлением.
Список моделей:
🟠Qwen2.5-Coder: 1.5B, 7B;
🟠Qwen2.5-Coder-Instruct: 1.5B, 7B;
🟠Qwen2.5-Coder-Instruct в формате GGUF: 1.5B, 7B.
▶️ Qwen2.5 Math
Qwen2.5-Math обучались на корпусе математических данных Qwen Math Corpus v2, который содержит более 1 трлн. токенов.
Помимо базовых моделей, серия Qwen2.5-Math включает в себя инструктивные модели: Qwen2.5-Math-Instruct и модель математического вознаграждения, Qwen2.5-Math-RM-72B.
Qwen2.5-Math-Instruct обучалась с использованием данных CoT и TIR на китайском и английском языках, а также данных SFT, созданных с использованием Qwen2.5-Math-RM-72B.
Список моделей:
🟠Qwen2.5-Math: 1.5B, 7B, 72B, RM-72B;
🟠Qwen2.5-Math-Instruct: 1.5B, 7B, 72B.
▶️ Вместе с релизом Qwen2.5, опубликована Qwen2-VL-72B-Instruct и ее квантованные Int8 и Int4 версии в форматах GPTQ, AWQ.
📌Лицензирование:
🟢Apache 2.0 для всех base и instruct моделей, кроме 3B и 72B.
🟠Qwen2.5-3B - Qwen Research License.
🟠Qwen2.5-72B и Qwen2.5-Math-72B - Qwen License.
🟡Страница проекта
🟡Коллекция моделей на HF
🟡Demo Qwen2.5-Instruct-72B
🟡Demo Qwen2.5-Coder-Instruct-7B
🟡Demo Qwen2.5-Math
🟡Сообщество в Discord
🖥Github
@ai_machinelearning_big_data
#AI #ML #LLM #Qwen
❤ 3
Photo unavailableShow in Telegram
Amazon представляет Project Amelia - ИИ-помощники для продавцов
Амазон запустил бета-версию AI-ассистентов для продавцов в США.
Project Amelia, созданный на базе Amazon Bedrock, упрощает управление бизнесом.
Агенты помогают в анализе продаж, трафика и предоставляют сводки ключевых метрик.
В перспективе ассистент сможет самостоятельно решать проблемы и выполнять задачи от имени продавца.
Я - Уинстон Вульф, решаю проблемы... 🛒💰
#Amazon #ProjectAmelia #eCommerce
-------
@tsingular
Tripo3D обновилась до v2.
И теперь можно бесплатно из любой фотки запилить 3Д фигуру за пару секунд.
Хочешь потом печатай её, хочешь в игру вставляй.
Работает и в вебе и по API
https://www.tripo3d.ai/app
#tripo3d #3d
———
@tsingular
20240919-1057-39.9122252.mp419.17 MB
🔥 5✍ 3
07:44
Video unavailableShow in Telegram
Nvidia’s CEO Jensen Huang и Salesforce CEO Marc Benioff обсуждаю ИИ агентов на Dreamforce 2024.
- Это будет индустрия навыков - агенты, использующие инструменты. У нас будут агенты, которые понимают тонкости того, что мы просим их сделать и они смогут использовать инструменты, рассуждать и сотрудничать друг с другом.
- Прорыв для меня наступил в момент, когда мы поняли, что обучение без учителя стало возможным. Когда оно позволило нам использовать языковые модели для создания языковых моделей, кодифицирующих предварительные знания человека, с этого момента масштаб стал экспоненциальным.
- Мы находимся на стадии, когда мы движемся гораздо быстрее закона Мура. Возможно, в квадратичной степени закона Мура.
- Сейчас только раскручивается маховик обратной связи и я думаю, что прогресс, который у нас будет с агентами в течение следующего года или двух, будет впечатляющим и удивительным.
- ИИ теперь рассуждает о том, достаточно ли безопасен и правилен ответ, который он генерирует.
- Создание агента не должно быть каким-то проектом для хакатона по информатике. Это должно быть чем-то, что мы можем легко сделать, потому что это будет больше похоже на адаптацию сотрудников, чем на написание программного обеспечения.
- Мы собираемся привнести уровень автоматизации, которого мир никогда не видел.
Следующий год, - официально год агентов.
Ещё Хуанг в другом интервью заявил, что для вот этих самостоятельных рассуждений нужено примерно 50х больше инференс мощности, чем для обычных LLM, потому что там очень много промежуточных промптов и рассуждений. И их будет еще больше и нужно чтоб они проходили не за минуты как сейчас, а мгновенно, фоном незаметно для пользователя.
Так что следующие Blackwell чипы будут гораздо мощнее. Как видно из этого интевью, - в сотни раз, благодаря как раз ИИ разработчикам.
Добро пожаловать в Технологическую Сингулярность!
#NVIDIA #SalesForce #агенты
———
@tsingular
nv_small.mp4229.64 MB
🔥 6👍 4👾 1
Photo unavailableShow in Telegram
YouTube внедряет ИИ-инструменты для создателей контента
Google DeepMind интегрирует передовые модели генеративного ИИ в YouTube.
Функция Dream Screen позволит генерировать фоны для Shorts, используя технологии Veo и Imagen 3.
Вкладка 'Вдохновение' в YouTube Studio предложит идеи видео, заголовки и наброски сценариев.
В 2025 году планируется возможность создания 6-секундных видеоклипов.
Контент, созданный с помощью ИИ, будет помечен водяными знаками SynthID и спец метками.
Умнее станет так же функция автоматического дубляжа на разные языки.
В разделе Сообщества так же появятся новые инструменты ИИ появятся для работы с аудиторией .
Нужен отдельный видеохостинг для контента без ИИ.
Может в этом и будет цель Рутуба в итоге ? :)
#YouTube #DeepMind #DreamScreen
-------
@tsingular
Repost from Data Secrets
Nvidia выпустила NVLM 1.0 – собственную мультимодальную LLM, которая на некоторых тестах опережает GPT-4o
NVLM 1.0 (NVIDIA Vision Language Model) – это семейство открытых мультимодальных LLM, состоящее из моделей NVLM-D (Decoder-only Model), NVLM-X (X-attention Model) и NVLM-H (Hybrid Model) на 34B и 72B.
Модели особенно хорошо показывают себя на визуальных задачах. Например, на OCRBench NVLM-D обогнала даже GPT-4o. На вопросах по математике модель тоже выделяется: обгоняет Gemini и всего на 3 пункта отстает от Claude 3.5.
Архитектура у всех трех примерно одинковая, не считая обработку изображений. NVLM-D использует для картинок предобученный энкодер, который соединен с обычным двухслойным перцептроном (эффективно по параметрам, но кушает много GPU). NVLM-Х же для обработки токенов изображения использует cross-attention (не очень эффективно, зато лучше обрабатывает картинки с высоким разрешением). NVLM-H стала чем-то средним.
Больше технических деталей можно найти в статье. Веса самих моделей скоро можно будет найти на Hugging Face, а в этом репозитории лежит код.
👍 1
Choose a Different Plan
Your current plan allows analytics for only 5 channels. To get more, please choose a different plan.