cookie

We use cookies to improve your browsing experience. By clicking «Accept all», you agree to the use of cookies.

avatar

Технозаметки Малышева

Новости инноваций из мира искусственного интеллекта. 🤖 Всё об ИИ, ИТ трендах и технологической сингулярности. Бесплатный бот для подписчиков: @ai_gptfreebot автор: @mbmal канал личный. Поддержка: https://pay.cloudtips.ru/p/c8960bbb

Show more
Advertising posts
2 124
Subscribers
-124 hours
+857 days
+1 35730 days

Data loading in progress...

Subscriber growth rate

Data loading in progress...

02:15
Video unavailableShow in Telegram
Это видео я хотел прикрепить к посту про то, что Lionsgate заключила сделку с Runway. Но забыл. Исправляюсь. Это картинки из Флюкса+Лоры, присунутые в Runway. В большом количестве. На реддите отчаянно ищут блох - зубы кривые, башка большая, тело маленькое.. Стадия гнев. Скоро депрессия и принятие. Обратите внимание, ничего (почти) не кипит, это вам не AnimDiff, это video генерация Заберите девочку и скормите ея в video2video. Она и так хороша, но можно будет снимать сериалы и накидывать на них скины: аниме, пластилин, киберпанк.. И тут мне пришла в голову идея выпить за модный эмоциональный интеллект. Берем актеров и студентов актерских вузов, курсов, тусовок. Размечаем датасет. Тут радость, тут грусть, тут нереальное сопререживание, тут чудовищная эмпатия. Дальше пишем промпты. Точнее пишем, что надо выдавить из кожаного зрителя, а chatGPT или Жан Клод напишет оптимальный промпт для генерации. Ну, за эмоциональный интеллект, которые плавно приватизирован искусственным интеллектом. @cgevent
Show all...
rapidsave_com_the_synthetic_actress_is_she_almost_here_2yy5mqrp8jpd1.mp433.40 MB
👍 3
Photo unavailableShow in Telegram
ИИ в ИБ - на примере защиты веб сайта Провёл тут небольшое упражнение. Берём простой сайт, буквально лэндинг с чат-ботом, запускаем и смотрим логи. В логах сразу видим разных ботов и прочие хакер-сканеры. Буквально через пару минут они к вам придут, если не быстрее. Но у нас же ИБ паранойя, - начинаем думать что бы прикрыть в первую очередь своими силами. Security Hardening, - есть такой базовый термин - настроить то, что уже есть под рукой или взять open source. Берём какой-нибудь более менее бесплатный внешний сканер (или платный в режиме промо), смотрим что же у нас не так. Получаем на почту отчет, - в моём примере он что-то в размере 5 средних и 4 не страшных уязвимостей нашел и еще рекомендации дал WAF поднять и еще по мелочи. Берём этот отчёт и кормим Sonnet 3.5 вместе с конфигом nginx! тут важно, чтобы он не нагалюцинировал что-то, что порушит ваш текущий конфиг! И получаем на выходе новый исправленный конфиг и еще описание шагов по установке WAF и настройке ufw и т.д. Получается можно очень быстро поднять уровень безопасности своей веб инфраструктуры без привлечения вообще никого за несколько десятков тысяч токенов, - т.д. даром. #securetyhardening #security #manual ——— @tsingular
Show all...
🔥 3👍 2 1
Photo unavailableShow in Telegram
🔥 6😁 2
Repost from Data Secrets
Photo unavailableShow in Telegram
No Context Russia
Show all...
😁 4🎃 2
Repost from Machinelearning
⚡️ Qwen2.5 Family: Релиз Qwen2.5, Qwen2.5-Coder и Qwen2.5-Math. Команда разработки Qwen (Alibaba Group) опубликовала большой релиз нового поколения моделей - Qwen2.5, специализированные модели: Qwen2.5-Coder, Qwen2.5-Math, их инструктивные и квантованные версии, анонсированы закрытые Qwen-Plus и Qwen-Turbo. Вместе с релизом нового поколения 2.5 в отрытый доступ опубликована Qwen2-VL-72B-Instruct предыдущего поколения. ▶️ Qwen2.5 В дополнение к традиционным вариантам с 0,5-1,5-7-72 млрд параметров, Qwen2.5 предлагает две новые модели среднего размера 14 млрд и 32 млрд параметров и компактную модель 3 млрд параметров. Qwen2.5 обучались на увеличенном и улучшенном наборе данных размером в 18 трлн токенов. Значительно расширены знания моделей: возможности в области программирования, усовершенствованы математические способности Qwen2.5, повышено соответствие ответов модели предпочтениям человека: следование инструкциям, генерация длинных текстов (до 8 тыс. токенов), понимание структурированных данных и генерация структурированных выводов (в частности, JSON). Список моделей: 🟢Qwen2.5: 0.5B, 1.5B, 3B, 7B, 14B, 32B, 72B; 🟢Qwen2.5-Instruct: 0.5B, 1.5B, 3B, 7B, 14B, 32B, 72B; 🟢Qwen2.5-Instruct: все варианты в форматах GPTQ, AWQ, GGUF. В дополнение к этим моделям открыт доступ по API для флагманских моделей: Qwen-Plus и Qwen-Turbo через Model Studio. ▶️ Qwen2.5 Coder Qwen2.5-Coder доступна в трех размерах: 1,5 млрд, 7 млрд и 32 млрд параметров (последняя появится в ближайшее время). Обновление состоит из двух основных улучшений: больше объем обучающих данных и расширение возможностей программирования в общих задачах и в математике. Модели обучались на массиве данных объемом 5,5 триллиона токенов, включающем исходный код, данные для сопоставления текста и кода и синтетические данные. Qwen2.5-Coder поддерживает до 128 тысяч токенов контекста, знает 92 языка программирования и выполняет операции по генерации кода, автодополнению и исправлению кода. Qwen2.5-Coder-Instruct имеет способность к обобщению, знает более 40 языков программирования, справляется с задачами, связанными с логическим мышлением в коде, и показывает высокие результаты в задачах, связанных с математическим мышлением. Список моделей: 🟠Qwen2.5-Coder: 1.5B, 7B; 🟠Qwen2.5-Coder-Instruct: 1.5B, 7B; 🟠Qwen2.5-Coder-Instruct в формате GGUF: 1.5B, 7B. ▶️ Qwen2.5 Math Qwen2.5-Math обучались на корпусе математических данных Qwen Math Corpus v2, который содержит более 1 трлн. токенов. Помимо базовых моделей, серия Qwen2.5-Math включает в себя инструктивные модели: Qwen2.5-Math-Instruct и модель математического вознаграждения, Qwen2.5-Math-RM-72B. Qwen2.5-Math-Instruct обучалась с использованием данных CoT и TIR на китайском и английском языках, а также данных SFT, созданных с использованием Qwen2.5-Math-RM-72B. Список моделей: 🟠Qwen2.5-Math: 1.5B, 7B, 72B, RM-72B; 🟠Qwen2.5-Math-Instruct: 1.5B, 7B, 72B. ▶️ Вместе с релизом Qwen2.5, опубликована Qwen2-VL-72B-Instruct и ее квантованные Int8 и Int4 версии в форматах GPTQ, AWQ. 📌Лицензирование: 🟢Apache 2.0 для всех base и instruct моделей, кроме 3B и 72B. 🟠Qwen2.5-3B - Qwen Research License. 🟠Qwen2.5-72B и Qwen2.5-Math-72B - Qwen License. 🟡Страница проекта 🟡Коллекция моделей на HF 🟡Demo Qwen2.5-Instruct-72B 🟡Demo Qwen2.5-Coder-Instruct-7B 🟡Demo Qwen2.5-Math 🟡Сообщество в Discord 🖥Github @ai_machinelearning_big_data #AI #ML #LLM #Qwen
Show all...
3
Photo unavailableShow in Telegram
Amazon представляет Project Amelia - ИИ-помощники для продавцов Амазон запустил бета-версию AI-ассистентов для продавцов в США. Project Amelia, созданный на базе Amazon Bedrock, упрощает управление бизнесом. Агенты помогают в анализе продаж, трафика и предоставляют сводки ключевых метрик. В перспективе ассистент сможет самостоятельно решать проблемы и выполнять задачи от имени продавца. Я - Уинстон Вульф, решаю проблемы... 🛒💰 #Amazon #ProjectAmelia #eCommerce ------- @tsingular
Show all...
Tripo3D обновилась до v2. И теперь можно бесплатно из любой фотки запилить 3Д фигуру за пару секунд. Хочешь потом печатай её, хочешь в игру вставляй. Работает и в вебе и по API https://www.tripo3d.ai/app #tripo3d #3d ——— @tsingular
Show all...
20240919-1057-39.9122252.mp419.17 MB
🔥 5 3
07:44
Video unavailableShow in Telegram
Nvidia’s CEO Jensen Huang и Salesforce CEO Marc Benioff обсуждаю ИИ агентов на Dreamforce 2024. - Это будет индустрия навыков - агенты, использующие инструменты. У нас будут агенты, которые понимают тонкости того, что мы просим их сделать и они смогут использовать инструменты, рассуждать и сотрудничать друг с другом. - Прорыв для меня наступил в момент, когда мы поняли, что обучение без учителя стало возможным. Когда оно позволило нам использовать языковые модели для создания языковых моделей, кодифицирующих предварительные знания человека, с этого момента масштаб стал экспоненциальным. - Мы находимся на стадии, когда мы движемся гораздо быстрее закона Мура. Возможно, в квадратичной степени закона Мура. - Сейчас только раскручивается маховик обратной связи и я думаю, что прогресс, который у нас будет с агентами в течение следующего года или двух, будет впечатляющим и удивительным. - ИИ теперь рассуждает о том, достаточно ли безопасен и правилен ответ, который он генерирует. - Создание агента не должно быть каким-то проектом для хакатона по информатике. Это должно быть чем-то, что мы можем легко сделать, потому что это будет больше похоже на адаптацию сотрудников, чем на написание программного обеспечения. - Мы собираемся привнести уровень автоматизации, которого мир никогда не видел. Следующий год, - официально год агентов. Ещё Хуанг в другом интервью заявил, что для вот этих самостоятельных рассуждений нужено примерно 50х больше инференс мощности, чем для обычных LLM, потому что там очень много промежуточных промптов и рассуждений. И их будет еще больше и нужно чтоб они проходили не за минуты как сейчас, а мгновенно, фоном незаметно для пользователя. Так что следующие Blackwell чипы будут гораздо мощнее. Как видно из этого интевью, - в сотни раз, благодаря как раз ИИ разработчикам. Добро пожаловать в Технологическую Сингулярность! #NVIDIA #SalesForce #агенты ——— @tsingular
Show all...
nv_small.mp4229.64 MB
🔥 6👍 4👾 1
Photo unavailableShow in Telegram
YouTube внедряет ИИ-инструменты для создателей контента Google DeepMind интегрирует передовые модели генеративного ИИ в YouTube. Функция Dream Screen позволит генерировать фоны для Shorts, используя технологии Veo и Imagen 3. Вкладка 'Вдохновение' в YouTube Studio предложит идеи видео, заголовки и наброски сценариев. В 2025 году планируется возможность создания 6-секундных видеоклипов. Контент, созданный с помощью ИИ, будет помечен водяными знаками SynthID и спец метками. Умнее станет так же функция автоматического дубляжа на разные языки. В разделе Сообщества так же появятся новые инструменты ИИ появятся для работы с аудиторией . Нужен отдельный видеохостинг для контента без ИИ. Может в этом и будет цель Рутуба в итоге ? :) #YouTube #DeepMind #DreamScreen ------- @tsingular
Show all...
Repost from Data Secrets
Nvidia выпустила NVLM 1.0 – собственную мультимодальную LLM, которая на некоторых тестах опережает GPT-4o NVLM 1.0 (NVIDIA Vision Language Model) – это семейство открытых мультимодальных LLM, состоящее из моделей NVLM-D (Decoder-only Model), NVLM-X (X-attention Model) и NVLM-H (Hybrid Model) на 34B и 72B. Модели особенно хорошо показывают себя на визуальных задачах. Например, на OCRBench NVLM-D обогнала даже GPT-4o. На вопросах по математике модель тоже выделяется: обгоняет Gemini и всего на 3 пункта отстает от Claude 3.5. Архитектура у всех трех примерно одинковая, не считая обработку изображений. NVLM-D использует для картинок предобученный энкодер, который соединен с обычным двухслойным перцептроном (эффективно по параметрам, но кушает много GPU). NVLM-Х же для обработки токенов изображения использует cross-attention (не очень эффективно, зато лучше обрабатывает картинки с высоким разрешением). NVLM-H стала чем-то средним. Больше технических деталей можно найти в статье. Веса самих моделей скоро можно будет найти на Hugging Face, а в этом репозитории лежит код.
Show all...
👍 1
Choose a Different Plan

Your current plan allows analytics for only 5 channels. To get more, please choose a different plan.