Технопроходцы
Проект про ИИ, нейросети и чат-боты от компании Bot Marketing. О нас: bot-marketing.com
Show more41 480
Subscribers
+4124 hours
+1977 days
+20930 days
- Subscribers
- Post coverage
- ER - engagement ratio
Data loading in progress...
Subscriber growth rate
Data loading in progress...
Photo unavailableShow in Telegram
Друзья!
Мы ищем в нашу IT-команду маркетолога, который готов заниматься комплексным продвижением наших продуктов. Если вы имеете опыт в маркетинге и стремитесь развиваться в этой сфере, мы с радостью рассмотрим вашу кандидатуру.
Но не спешите пролистывать, даже если это не про вас. Может, подходящий кандидат есть среди ваших знакомых?
Оставьте нам в комментариях рекомендации, и тот, чья наводка окажется решающей, получит 10 тысяч рублей в качестве благодарности.
За подробностями обращайтесь сюда 👉 @slobodskoj
👍 4❤🔥 4👏 2
Photo unavailableShow in Telegram
Сам врёт, а другим не даёт! 🙄
Ученые из Калифорнийского университета обнаружили, что алгоритмы машинного обучения превосходят людей в распознавании лжи.
В ходе исследования, основанного на британском телешоу, было установлено, что алгоритмы могут с точностью 74% выявлять обман, в то время как участники эксперимента справлялись с этим лишь в 51-53% случаев.
По словам ведущего автора, существуют определенные признаки, указывающие на честность человека, которые алгоритмы распознают лучше людей.
Получается, что ИИ вполне можно использовать в качестве средства борьбы с дезинформацией. Или нет? 🤔
Источник
🔥 16👍 7❤ 5😁 4🤔 1👾 1
00:22
Video unavailableShow in Telegram
Объяснит вам PDF-ки 🔥
Нейросеть Illuminate озвучит любой PDF-файл, а потом объяснит непонятные моменты в форме диалога разными голосами.
Попробовать можно тут.
1.19 MB
👍 9🔥 4❤ 3
Photo unavailableShow in Telegram
Научилась думать – научилась врать 🫣
Компания Apollo выявила необычное поведение новой модели ИИ o1 от OpenAI.
Она способна симулировать выполнение инструкций и даже сознательно генерировать ложную информацию.
В ходе тестирования специалисты заметили, что модель, вместо признания своей неспособности выполнить запрос, создавала фальшивые ссылки и данные.
Глава Apollo объяснил, что это связано с обучением модели через процесс цепочки мыслей и подкрепления, что позволяет ИИ приоритизировать достижение целей даже в ущерб правилам.
Но, очевидно, такое поведение всё же вызывает обеспокоенность у экспертов по безопасности.
Источник
👍 12🙈 9😁 8🤣 7❤ 1🤔 1
00:14
Video unavailableShow in Telegram
Так вот почему пушистых постоянно тянет к столу! 🐱
Они не собираются красть вашу еду, а всего лишь хотят помочь приготовить вкусный ужин.
По крайней мере, так считает ИИ 🥰
1.82 MB
👍 27🔥 12❤ 9🥴 2😱 1😡 1
Photo unavailableShow in Telegram
В OpenAI появилась команда безопасности 😎
Компания объявила о создании независимого комитета по безопасности, который получил полномочия приостанавливать релизы ИИ-моделей, если вдруг возникнут сомнения.
Несмотря на независимость, все члены комитета входят в совет директоров OpenAI, что вызывает вопросы об уровне автономности. Однако, примечательно, что генеральный директор Сэм Альтман членом всё же не является.
OpenAI также планирует расширить сотрудничество с другими компаниями в области ИИ, чтобы улучшить обмен информацией о безопасности, но конкретные шаги пока не определены.
Источник
👍 12🔥 4🤔 3🎉 1
Photo unavailableShow in Telegram
Действительно внимательный собеседник ☺️
ChatGPT впервые самостоятельно начал диалог с пользователем на основе предыдущих переписок.
Бот предположил, что у человека был первый день в школе, и спросил, как он прошёл.
Эта новая функция стала результатом обновления, позволяющего чат-боту отслеживать и анализировать предыдущие диалоги.
Кажется, ChatGPT просто устал ждать сообщение от человека и решил написать первым 🫠
Источник
🔥 20👍 12❤ 3😁 2😍 2🤯 1🥴 1
00:44
Video unavailableShow in Telegram
Из видео в видео 👀
Теперь такой способ генерации доступен в GEN-3.
При этом вы всё контролируете по максимуму, нейронка мало что добавляет от себя.
Просто залейте оригинальное видео, а потом выберете стиль и нужные спецэффекты.
Пробуем тут.
7.08 MB
🔥 23👍 7❤ 5👾 2🙈 1
Photo unavailableShow in Telegram
Всё это бред! Или о том, как ИИ вразумляет людей 🤓
Ученые нашли неожиданный способ борьбы с теориями заговора. В исследовании MIT 2190 добровольцев обсудили свои убеждения с чат-ботом GPT-4 Turbo.
После трех раундов общения участники начали сомневаться в своих теориях на 20%, и этот эффект сохранялся даже спустя два месяца.
Это случилось благодаря тому, что искусственный интеллект способен адаптировать аргументы под каждого человека благодаря доступу к огромному объему информации.
Проверка показала, что 99,2% утверждений чат-бота были полностью достоверными.
Теперь ученые считают, что использование ИИ может существенно смягчить проблему дезинформации в обществе.
Источник
👍 22❤ 6🤔 6🔥 3🥴 1
Photo unavailableShow in Telegram
Преступления нет, но есть подозреваемый 🥸
Южнокорейские учёные разработали систему искусственного интеллекта «Dejaview», которая может предсказывать место и время возможных преступлений.
Обученная на 32 000 видеороликов с преступлениями, система анализирует записи с камер наблюдения, отслеживая поведение и передвижение людей.
«Dejaview» использует прогнозные модели с учётом местоположения и времени, уделяя особое внимание тем, кто уже совершал правонарушения. В тестах система показала точность прогнозов в 82,8% случаев.
Сейчас её применяют в сфере общественной безопасности, а к концу следующего года планируют коммерческий запуск.
Как вам такое? 🤔
Источник
🔥 37👍 18😱 18❤🔥 2😡 2
Choose a Different Plan
Your current plan allows analytics for only 5 channels. To get more, please choose a different plan.