cookie

We use cookies to improve your browsing experience. By clicking «Accept all», you agree to the use of cookies.

avatar

Deep Learn Me

Чат: https://t.me/deeplearnme_chat Канал про IT, ML, DL, Research, Python и к ним прилегающее YouTube: https://www.youtube.com/channel/UCs46uHl7ngm6TTjpFzQHfqA Канал про мою жизнь в Нью-Йорке: https://t.me/korney3_travel

Show more
Russia725 895Russian781 308The category is not specified
Advertising posts
332
Subscribers
No data24 hours
No data7 days
No data30 days

Data loading in progress...

Subscriber growth rate

Data loading in progress...

Repost from /g/‘s Tech Memes
Photo unavailableShow in Telegram
🤣 4
Photo unavailableShow in Telegram
Stealing Part of a Production Language Model Наткнулась тут на прикольную статью, которая хайпово называется КрАжА твоего сердечка КусОчКа ПродАкЩн LLM мОдеЛи. Звучит ну очень по-хацкерски, но на самом деле это просто отдельная область, которая называется attacks на нейросетевые модели, в частности LLM. В этой конкретной работе авторы при помощи ядерного оружия🌟 линейной алгебры и большого набора (стоимостью 20$ обращений к чатгпт апи) log probs ответов модели на промпты находят hidden size скрытого представления данных и “embedding projection layer of a transformer model” (я сильно глубоко не вчитывалась, но как будто это скрытое представление матрицы Q)🔦 Статья мне понравилась, потому что она опирается на базовый линал (в основном на собственные значения матриц и SVD - обожаю SVD!!!!). Единственное, чего я не оч понимаю - что все эти вычисления полагаются на то, что все вектора скрытых представлений живут в линейном пространстве (для которого все эти собственные значения и разложения работают). Не, ну мы все видели эту картинку про Word2Vec, где король-мужчина=королева, но насколько так же линейно все в пространстве скрытых представлений нейросетей…. Хз, я про это иногда думаю, но пока ничего не читала глубокого на тему.❓❓❓ В общем, хз, насколько нам ценны детали о размерностях продакшн ллм моделей, но раз OpenAI так ревностно инфу эту хранит, то почему бы им назло ее не раскопать? В любом случае интересный кейс применения линала и в целом область🙂 #paper #maths #research #llm
Show all...
🔥 3 2
Блин, я ничего не понимаю в роботах и во мне умер инженер конструктор, но я правда считаю, что робототехника это одна из самых интересных областей для работы и для мл там сейчас простора дофига Вот показывают, как hugging face чуваки занимаются робототехникой как хобби 😳 Я сначала просто умильнулась, а потом такая "Погодите-ка!" Они реально сделали робота, который распознает свое окружение не классическими object detection моделями, а LLM, которая по изображению может написать, что находится на картинке 😮😮😮 Понятно, что это просто игрушка, но я за областью не слежу, теперь реально и обжект детекшон заменили ллм?❓ #llm #ai_applications #memes
Show all...
Derp Learning

Коротко о том, как развлекается кофаундер и CSO HuggingFace🤗 Чуваки сделали умного робота из ⣀⠓⡉⢈⡉ ⠖ ⣠⢈⡊⢆⢈ машинки на пульте управления и трёх open source нейронок: Whisper - распознаёт речь. Idefics2 - ЛЛМ с виженом. Parler-TTS - голос робота. Все под управлением Dora-CS, а компьют лежит на ноуте, но связь по безпроводу. Назвали мило Немо😊 Малой неплохо так катается по офису, вроде как, даже знает, где кухня. На видео (лучше сами гляньте) один из разрабов вежливо просит привести ему кофе, но оказалось, что кофемашина на ремонте, о чем преданный четырёхколёсный отчитывается хозяину. А еще эта штука кажется понимает язык жестов и едет туда, куда ты тыкаешь. Вот э тайм ту би алайв! Твит Код @ai_newz

7🤔 1
Photo unavailableShow in Telegram
XGBoost External Memory Представьте ситуацию, где у вас есть примерно дофига данных (скажем, csv таблица на 50GB), которые никак не влезут даже в 32GB оперативки 🚽 В области нейросеточек эта дилемма уже давно разрешилась еще на этапе расцвета Computer Vision с тоннами картинок, необходимых для обучения. Еще не доходя распределенных вычислений и запуска обучения на супер компьютере, есть простой инструмент, который упрощает работу с большими данными. Это классы dataset и dataloader (например, в путорче). Их основная идея - реализовать класс датасета, который сможет по индексу загружать в память один элемент датасета, а даталоадер будет эффективно распараллеливать загрузку этих элементов, склеивать в батчи и освобождать память после. Идеологически такой подход, наверное, ближе всего к итераторам/генераторам - которые последовательно перебирают элементы некоторой коллекции, не держа коллекцию в памяти. 🤤 Теперь представьте, что вы хотите обучить XGBoost модель, а не нейросетку… Вот оказывается, у XGBoost есть своя имплементация похожей концепции. Называется XGBoost External Memory Version. Строится она ровно на итераторе, но небольшое отличие от dataset/dataloader в том, что надо написать итератор не по отдельным элементам датасета, а по большим чанкам (например, поделить исходный файл на несколько маленьких и по кусочкам его загружать). 🤤 Для этого итератора потом можно собрать объект внутреннего XGBoost формата DMatrix (не волнуйтесь, он не загружает все чанки в память, а при создании создает свой файлик кеша, который потом использует для более эффективного обращения с данными при обучении) Объект DMatrix потом используется как параметр метода xgboost.train (классы XGBClassifire/XGBRegressor с интерфейсом sklearn не поддерживаются), и вот вуаля - обучение в режиме Large Dataset ! Enjoy 🙂🙂🙂 #framework #boosting #table_data #useful_links
Show all...
6🔥 3
Photo unavailableShow in Telegram
Цундере Пассивно-агрессивная conda 🐍🌟🌟 #memes #python
Show all...
😈 6😁 2
Photo unavailableShow in Telegram
Kubernetes Release Themes На прошлой неделе был релиз v1.30 Kubernetes и я узнала, что у каждого релиза есть своя тема. И у этого релиза тема - UwU смайлик. И, соответственно, мотто “Kubernetes v1.30 makes your clusters cuter!”. 🍀🍀🍀🍀🍀 Так что срочно бежим обновлять кубернетесы!💵 Я поскроллила по старым релизам, мне еще понравился экзистенциальная Mandala и неоновый Electrifying. Вообще, девопсы - какие-то самые няшные на свете люди, по ходу. Мне нравится вся эта декоративная мишура, когда я полгода назад начала работать с Helm меня умиляло, что на кажду helm команду тебе в терминале принтят “Happy Helming!”, пустячок, а приятно UwU #kubernetes #devops #helm
Show all...
8 5 1
Это мы или не мы https://t.me/kabinet_memologa/65233
Show all...
Кабинет Мемолога

😁 2🙈 2
Я просто обожаю хорошие визуализации, потому что имхо картинка гораздо лучше передает информацию в большинстве случаев, чем текст Вот можно было просто сказать "Прикиньте, если спросить у чата гпт назвать число от 1 до 100, то он скорее всего скажет 42!" А можно вот, heatmap нарисовать ☺🤩 https://t.me/ithueti/12457
Show all...
🐓 Айти Тудэй 🦥

1
Как же горело у художников, когда стали выкатывать первые модели с диффузией пару лет назад... как у нас от Devin примерно :D На деле оказывается, что эти модели - еще один инструмент наряду с фотошопом, который поможет творить и вытворять больше и быстрее. Наткнулась на канал VERLAB, где чуваки генерируют интерьеры на основе произведений искусства/фотографий/архитектурных стилей. Я не знаю, какой у них точный рецепт этого коктейля (взболтать, но не смешивать) из нейронок и ручного фотошопа, но это выглядит так СТИЛЬНО и КРАСИВО, просто отвал башки, если нейронки в умелых руках такое могут - правильной дорогой идем, товарищи✨👍 #useful_links #image_generation #ai_applications
Show all...
VERLAB

Интерьер из мозаики Уверены, вы любите советские мозаики так же, как любим их мы. Создали интерьерные интерпретации нескольких красивых мозаичных панно. 1. Мозаичное панно «Волга - русская река», г. Балаково. 1966 г. 2. Мозаичное панно «Эстафета», г. Москва. 1972 г. 3. Мозаичное панно «Симфония труда» Киев, проспект Победы, 1960-70е.

3 2 2👍 1 1
Repost from /g/‘s Tech Memes
Photo unavailableShow in Telegram
🤣 5👍 1🌚 1
Choose a Different Plan

Your current plan allows analytics for only 5 channels. To get more, please choose a different plan.