cookie

We use cookies to improve your browsing experience. By clicking «Accept all», you agree to the use of cookies.

avatar

ИИ & Право

Новости регулирования искусственного интеллекта. #ИИ комплаенс #AI Governance #искусственныйинтеллект Английская версия канала https://t.me/ai_and_law Контакт: @mmariuka

Show more
Russia181 859Russian185 414Law2 935
Advertising posts
1 963
Subscribers
+1524 hours
+327 days
+9030 days

Data loading in progress...

Subscriber growth rate

Data loading in progress...

Китай усиливает контроль над контентом, созданным ИИ Администрация киберпространства Китая представила проект нового регулирования, которое обяжет цифровые платформы четко обозначать весь контент, созданный с помощью искусственного интеллекта. Согласно этому проекту, на текстах, изображениях, видео и аудиофайлах, созданных ИИ, должны быть видимые логотипы и метаданные. В некоторых случаях аудиоконтент должен включать голосовые сообщения, информирующие о его происхождении, а на видео должны отображаться соответствующие уведомления. Предложенные правила направлены на усиление контроля над материалами, созданными ИИ, с целью обеспечения прозрачности. Платформы также будут обязаны анализировать и маркировать подозрительный контент, если в нем отсутствуют метаданные. Этот проект отражает стремление Китая к строгому регулированию технологий ИИ и пользовательского контента, с серьезными санкциями за несоблюдение правил. #ИИ #УправлениеИИ #Китай
Show all...
👍 3
Европейские общественные организации высказались о роли гражданского общества в обеспечении исполнения Закона ЕС об ИИ Европейский фонд ИИ и общества (European AI & Society Fund) и Европейский центр некоммерческого права (European Center for Not-for-Profit Law) выпустили отчет, отражающий важную роль гражданского общества в исполнении Закона ЕС об ИИ. Ближайшие месяцы предоставляют стратегическую возможность для организаций гражданского общества отстаивать общественные интересы и защиту фундаментальных прав. Основные приоритеты включают обеспечение строгих запретов на вредоносные системы ИИ, устранение системных рисков, связанных с продуктами, такими как ChatGPT, и ограничение исключений в чувствительных областях, таких как национальная безопасность и миграция. Используя опыт работы с Европейским Законом о цифровых услугах (Digital Services Act), отчет подчеркивает, что гражданское общество может эффективно влиять на исполнение законов и привлекать компании к ответственности. Для максимального воздействия общественных организаций необходимо координировать взаимодействие с такими институтами, как Европейский Офис ИИ и Европейский надзор за защитой данных. #ИИ
Show all...

👍 3🤔 2
Господа, все же помнят тему моего диссера? Иногда рассказываю и вам о современном и высокотехнологичном, научном и необычном. И с радостью приглашаю вас сюда, на этот канал, на завтрашний эфир-беседу с моей гостьей Мариной Материк. Марина - юрист с многолетней практикой в международных сделках, экс-сотрудник одного из ведущих российских банков. В её копилке - опыт юридического сопровождения при создании и внедрении новых онлайн продуктов, технологии блок-чейн, цифровизации банковских услуг. А ещё Марина - автор телеграм-канала, посвященного новостям правового регулирования искусственного интеллекта в мире, а также этическим вопросам его применения: ИИ & Право. Прям наше, родное❤️ Итак, завтра, в 11:00 мск, мы с Мариной Материк обсудим: ☑️ Риски нового (цифрового мира): избегать или извлекать пользу? ☑️ Перспективы развития ИИ (и можно ли вообще что-то прогнозировать на ближайший год, пять, десять, пятьдесят), и любимое моё: ☑️ Ответственность в сфере применения ИИ: когда мы сдвинемся с уровня принципов и песочниц? Сердечно приглашаю. До встречи завтра!
Show all...
👍 4 2🔥 2
Уважаемые подписчики, если вам интересно познакомиться поближе с автором канала, то можно заглянуть на беседу, куда меня пригласили коллеги 👆
Show all...
👍 2
ИИ-инфраструктура уходит под воду? С ростом спроса на устойчивую ИИ-инфраструктуру стартап NetworkOcean предлагает новый подход: погружение серверов GPU в залив Сан-Франциско для охлаждения с использованием морской воды. Основатели компании, Сэм Мендель и Эрик Ким, считают, что этот метод может сократить энергопотребление и поддержать экономику региона, ориентированную на ИИ. Однако этот план вызвал сомнения, так как NetworkOcean не получила необходимых разрешений регулирующих органов, что вызывает опасения по поводу возможного экологического ущерба. Регуляторы и эксперты по охране окружающей среды обеспокоены тем, что даже незначительные изменения в заливе могут спровоцировать цветение токсичных водорослей и нанести вред дикой природе. Дискуссия отражает противоречия между технологическими инновациями и охраной окружающей среды и указывает на необходимость поиска баланса между развитием ИИ-инфраструктуры и защитой природных экосистем. #ИИ #Экология #Sustainability
Show all...
Launch YC: NetworkOcean - Underwater data centers | Y Combinator

We build underwater data centers to cut power usage by up to 30%

👍 4
В системной карточке новой модели от OpenAI впервые обозначен "средний" уровень риска OpenAI представила свои новейшие модели, o1-preview и o1-mini, которые демонстрируют значительные достижения в области рассуждений, достигая точности уровня PhD в таких областях, как физика, биология и химия. При этом OpenAI впервые оценила свои модели как обладающие "средним" уровнем риска в отношении химических, биологических, радиологических и ядерных (CBRN) угроз. Исследование Apollo выявило тревожные особенности моделей, которые вызывают опасения по поводу тенденций моделей к стремлению к власти. Несмотря на эти риски, OpenAI уверяет, что модели пока не представляют значительной опасности, хотя они и более опасны по сравнению с предыдущими версиями. По мере того как компания балансирует между инновациями и безопасностью, ей, возможно, вскоре придется принимать более сложные решения о том, следует ли выпускать эти все более мощные модели. #ЭтикаИИ #OpenAI
Show all...

👍 5 5
Министерство торговли США ужесточает требования к отчетности для разработчиков моделей ИИ и инфраструктурных операторов Министерство торговли США предложило новые правила отчетности для разработчиков передовых моделей ИИ и операторов инфраструктуры, необходимой для их обучения. Предложенные правила обяжут компании отчитываться о моделях ИИ, превышающих определённые пороговые значения вычислительной мощности. Эта мера призвана устранить опасения, что передовые модели ИИ могут быть потенциально использованы для киберпреступлений или даже для создания оружия массового поражения, если не будут надлежащим образом регулироваться. Кроме того, операторы инфраструктуры должны будут отчитываться о возможностях своих вычислительных кластеров. #ИИ
Show all...

4👍 3
YouTube принимает меры для защиты создателей контента от ИИ-подражателей YouTube внедряет новые инструменты, направленные на защиту своих пользователей от имитаций голосов и внешности авторов при помощи ИИ. Платформа анонсировала разработку технологии для идентификации "синтетического пения", которая поможет авторам автоматически обнаруживать и управлять контентом, созданным с помощью ИИ, который имитирует их голоса. Этот инструмент будет интегрирован в существующую систему Content ID YouTube и будет запущен в рамках пилотной программы в следующем году. Кроме того, YouTube разрабатывает инструмент для идентификации дипфейков лиц, что позволит авторам, актерам и музыкантам сохранять контроль над своим цифровым образом. Эти меры являются частью более широкой инициативы YouTube, направленной на то, чтобы ИИ усиливал, а не заменял человеческое творчество. В рамках этой инициативы YouTube также ужесточает меры против несанкционированного скрапинга (scraping) контента, обеспечивая дополнительную защиту авторских работ. #ИИ #YouTube
Show all...
New tools to protect creators and artists

At YouTube, we're committed to ensuring our creators and partners thrive in this evolving landscape. This means equipping them with the tools they need to harness AI's creative potential while maintaining control over how their likeness, including their face and voice, is represented. To achieve this, we're developing new likeness management technology that will safeguard them and unlock new opportunities in the future.

👍 2🤔 2
В Австралии предлагаются новые добровольные стандарты безопасности ИИ Правительство Австралии предложило новый добровольный стандарт безопасности ИИ для бизнеса. Стандарт содержит практическое руководство для австралийского бизнеса по интеграции ответственного управления ИИ, с акцентом на безопасность, разнообразие и доверие. #ИИ #Австралия
Show all...
Voluntary AI Safety Standard

The AI Safety Standard is an easy-to-use guide that explains how to implement and benefit from safe, responsible AI systems in your business.

👍 6
00:07
Video unavailableShow in Telegram
ТЕХНОЛОГИИ, КОТОРЫЕ РАБОТАЮТ ЗА ВАС: ИИ В ДЕЙСТВИИ 👤Кратко, четко, по делу: все и даже больше о применении ИИ!Экономия: лучшие инструменты, альтернативы и подробные обзоры, помогут найти ту самую нейронку в кратчайшие сроки. — Личная эффективность: начиная с виртуальной примерки одежды и заканчивая устройствами для улучшения качества сна. — Образование: нейросети для текстов и сложных задач от математики до построения ядерного реактора. — Юмор: кринж от нейронок, милые видео и диалоги... Все это на канале OH MY GOD, GPT! Присоединяйтесь к нам, чтобы быть в тренде! #партнерский
Show all...
IMG_1987.MP41.13 MB
👍 5🔥 1
Choose a Different Plan

Your current plan allows analytics for only 5 channels. To get more, please choose a different plan.