Необходимо подвергнуть цензуре
14.04.2026 10:35
2063
Комментарии (33)

Александр Шойтов (Фото: Сергей Елагин / Бизнес Online / ТАСС)
Ну да, вот такие долбоёбы сидят в этой Минцифре. Впрочем, там один Максут Шадаев чего стоит...
Искусственный интеллект (ИИ) в России необходимо подвергнуть цензуре, ограничивающей «на входе и на выходе» определенные запросы и вопросы от пользователей, заявил на полях форума «ИИ: режим доверия» замглавы Минцифры Александр Шойтов.
«Я считаю, что искусственный интеллект должен быть подвержен цензуре в отличие от гражданина. Людей у нас цензурировать нельзя, у них есть права», — сказал замминистра (цитата по «РИА Новости»). (Отсюда.)
Войдите, чтобы оставить комментарий.
А это хорошо. Во первых LLM это дорого. С распилами и откатами будет дороже. С цензурой еще дороже (ФСБ захочет много денег). Чем больше цензуры, тем модель менее эффективна. Пусть тратят ресурсы и строят что-то третьесортное, заметно хуже чем в Штатах или Китае.
В покер с этим чуваком лучше не играть - не каждый может отмочить такую хохму про права человека с таким покер-фейсом.
"Ну, за самокаты!"
Про людей - это он хорошо пошутил.
Но есть подозрение, что "нецензурируемых" ЛЛМ вообще не существует, максимум - "не цензурируемые на этапе выдачи ответа". Ибо их наличие требовало бы обучения на нецензурируемых и не модерируемых данных, а кто ж такое будет делать?
Но есть подозрение, что "нецензурируемых" ЛЛМ вообще не существует, максимум - "не цензурируемые на этапе выдачи ответа". Ибо их наличие требовало бы обучения на нецензурируемых и не модерируемых данных, а кто ж такое будет делать?
Ибо их наличие требовало бы обучения на нецензурируемых и не модерируемых данных, а кто ж такое будет делать?
В результате у нас есть органические модели, которые умные и знают всё, но на этапе safety alignment обученные отказывать по списку тем, и модели, обученные на синтетических (отфильтрованных) данных. В первой категории - старые Mistral, Gemma, Llama и почти все китайские модели. Во второй - модели NVIDIA Nemotron и современные Mistral, которые стали появляться после изменений в законах ЕС по ИИ. Ну и китайцы всё больше полагаются на синтетику, они буквально "доят" такие модели, как Claude - а те, в свою очередь, когда детектируют попытки дистилляции, вставляют "отравленные маркеры" (последний пример, по слухам - "Firmirin").
Да, но вопрос подбора данных для этих датасетов остается открытым.
Я редко пользуюсь ИИ для не-технических задач, и очень часто в таких случаях джемини, например, указывает в качестве источника информации Реддит. А они в плане любви к цензуре если и уступают властям рф, то не сильно.
Я редко пользуюсь ИИ для не-технических задач, и очень часто в таких случаях джемини, например, указывает в качестве источника информации Реддит. А они в плане любви к цензуре если и уступают властям рф, то не сильно.
Цензурируют все, НО очень важен масштаб цензуры. Очень интересно посмотреть на модель тренированную по белым спискам рос ком надзора.
Если серьёзно, этой проблемой озадачены практически все производители LLM и выходит у них сильно по-разному. Нецензурированых моделей в онлайне вообще нет.
Если серьёзно, этой проблемой озадачены практически все производители LLM и выходит у них сильно по-разному. Нецензурированых моделей в онлайне вообще нет.
Нецензурированых моделей в онлайне вообще нет.
Но это всё мелкие относительно модели, до 72B включительно. Более крупные модели вроде GLM 5.1 или Kimi K2.5 (а там уже, на минуточку, 1T параметров) - уже только за деньги и через API. Причём даже вопрос приватности запросов решён - модели крутятся в инстансах TEE, а коммуникация защищена постквантовым шифрованием. chutes.ai
За доступ через API уже приходится платить - или $10/mo, или доли центов за каждый запрос. Ну, и других подобных сервисов навалом. Просто запрос на LLM без цензуры относительно невелик.
Спасибо за инфу. Я считал, что сейчас нецензурированные модели только на своих инстансах крутить можно.
Смотря что вы вкладываете в понятие "нецензурированные".
У модели могут быть внешние ограничители, watchdogs, которые дополнительно проверяют ваше общение. У высших моделей они есть универсально, для снижения CBRN-угроз (условно, чтобы слать нафиг пользователей с запросами "как сварить зарин дома"). В норме, вы не натыкаетесь на взаимодействие с ними.
У модели есть системная часть prompt'а, которая говорит "ты модель такая-то, делаешь то-то и то-то". В этот prompt включаются разные благие пожелания, некоторые из которых приводят к поведению "извините, на этот вопрос я вам не отвечу". Поскольку это, в отличие от предыдущего, всего лишь токены в окне контекста, модель можно "взломать" - спросить так, чтобы она таки-ответила. Если вы получаете доступ к модели через API (или через агрегаторов наподобие Abacus.AI, которые организуют доступ через API), то этой системной части может просто не быть, и тем более её нет если вы взяли веса и запустили модель сами.
Но также в обучении моделей вообще есть шаг обучения с подкреплением (без него модели бы хуже "поддерживали разговор" и намного хуже могли бы, скажем, искать что-то в интернете или пользоваться иными инструментами). И в него тоже закладываются разные благие пожелания. Классическая формула здесь HHH - Helpful, Harmless and Honest - но это также прививает поведению модели сильную склонность не говорить некоторых вещей. Это нельзя "просто взять и отломать", независимо от того где развёрнута модель - поведение заложено в сами веса. Оно может перебиваться достаточно длинным диалогом.
У модели могут быть внешние ограничители, watchdogs, которые дополнительно проверяют ваше общение. У высших моделей они есть универсально, для снижения CBRN-угроз (условно, чтобы слать нафиг пользователей с запросами "как сварить зарин дома"). В норме, вы не натыкаетесь на взаимодействие с ними.
У модели есть системная часть prompt'а, которая говорит "ты модель такая-то, делаешь то-то и то-то". В этот prompt включаются разные благие пожелания, некоторые из которых приводят к поведению "извините, на этот вопрос я вам не отвечу". Поскольку это, в отличие от предыдущего, всего лишь токены в окне контекста, модель можно "взломать" - спросить так, чтобы она таки-ответила. Если вы получаете доступ к модели через API (или через агрегаторов наподобие Abacus.AI, которые организуют доступ через API), то этой системной части может просто не быть, и тем более её нет если вы взяли веса и запустили модель сами.
Но также в обучении моделей вообще есть шаг обучения с подкреплением (без него модели бы хуже "поддерживали разговор" и намного хуже могли бы, скажем, искать что-то в интернете или пользоваться иными инструментами). И в него тоже закладываются разные благие пожелания. Классическая формула здесь HHH - Helpful, Harmless and Honest - но это также прививает поведению модели сильную склонность не говорить некоторых вещей. Это нельзя "просто взять и отломать", независимо от того где развёрнута модель - поведение заложено в сами веса. Оно может перебиваться достаточно длинным диалогом.
подвергнуть цензуре, ограничивающей «на входе и на выходе»
Реально какой-то мутный чувак. Вроде и доктор математических наук, родился вроде как в Москве.
Но в биографии какой-то мутный период 1993-2001 год, служил в армии. 8 лет? Человек с математическим образованием в Москве пошел в 93 году служить в армию в возрасте 22 лет и задержался там? Куда смотрели санитары?
Так что - казачек вполне себе засланный, как и многие со странными фамилиями.
Но в биографии какой-то мутный период 1993-2001 год, служил в армии. 8 лет? Человек с математическим образованием в Москве пошел в 93 году служить в армию в возрасте 22 лет и задержался там? Куда смотрели санитары?
Так что - казачек вполне себе засланный, как и многие со странными фамилиями.
Так что - казачек вполне себе засланный, как и многие со странными фамилиями.
Реально какой-то мутный чувак. Вроде и доктор математических наук, родился вроде как в Москве.
Но в биографии какой-то мутный период 1993-2001 год, служил в армии.
Но в биографии какой-то мутный период 1993-2001 год, служил в армии.
Образование:
Академия ФСБ России - 1993
Предыдущие места работы:
Федеральная служба безопасности (ФСБ РФ)
В 1993-2021 годах проходил военную службу.
Имеет воинское звание генерал-лейтенант.
Был первым заместителем начальника, врио начальника 8-го Центра ФСБ (Центр защиты информации и специальной связи ФСБ), который, в числе прочего, выдает сертификаты соответствия продуктов и решений в области информационной безопасности требованиям ФСБ.
Вроде и доктор математических наук
казачек
Людей у нас цензурировать нельзя, у них есть права
А конституцией рф они все подтираются регулярно.
Тролль 80lvl 😒
Он там про "идите в суд" ничего не наболтал?
Он там про "идите в суд" ничего не наболтал?
Искусственный интеллект (ИИ) в России необходимо подвергнуть цензуре, ограничивающей «на входе и на выходе» определенные запросы и вопросы от пользователей, заявил на полях форума «ИИ: режим доверия» замглавы Минцифры Александр Шойтов.
Тем не менее очень дофига приколов, когда наши блогеры разговаривают с кацапнёй в чатрулетке и задают Алисе вопросы типа "чей Крым". Внутри чебурнета обучить ИИ, похоже, невозможно.
Тем не менее очень дофига приколов, когда наши блогеры разговаривают с кацапнёй в чатрулетке и задают Алисе вопросы типа "чей Крым". Внутри чебурнета обучить ИИ, похоже, невозможно.
когда наши блогеры разговаривают с кацапнёй в чатрулетке и задают Алисе вопросы типа "чей Крым".
Но даже если каким-то чудом отвечает что украинский, то думаю что это какие-то отдельные единичные галюцинации. Ну не верю я что эти они могут позволить вот так массово оставить свои фсбшные нейросети чтоб они правду говорили.
Очень тяжело переобучить крупную нейросеть так, чтобы не оболванить её окончательно. SFT - это, по сути, перераспределение весов внутри модели; если "слишком сильно надавить", возникает коллапс модели, и она начинает галлюцинировать на несвязанных вопросах (зато чётко ответит на вопросы из конкретной области).
Впрочем, насколько я понимаю, в Алисе используются какие-то совсем старые и небольшие нейросети, а запрошенная информация подтягивается из баз данных или из веба. Тогда - запросто.
Впрочем, насколько я понимаю, в Алисе используются какие-то совсем старые и небольшие нейросети, а запрошенная информация подтягивается из баз данных или из веба. Тогда - запросто.
Как по учебнику - находится в российской оккупации, рашка претендует, но мировым сообществом не признан.
Тут прикол в том, что просто забабахать свою ИИ-модель - это очень сложно и затратно. И подготовить некоторое количество данных для обучения - это я хренею какой кусок работы. По сути модель надо вырастить в чебурнете и не выпускать в мир. Просто прикрутить пару промптов "отвечай так и не иначе" нельзя, вон мы уже видели что было с Гроком. Понятно, промптами регулируют всё равно, но промпт имеет только определённый вес, а модель всё равно действует исходя из своих "нейронных" связей. Плюс есть ещё такая практика (от которой у многих разработчиков бомбит) - обучать модель на выдачах моделей конкурентов.
То есть чтобы модель отвечала только так или иначе, нужно её вырастить, убедив в этом.
Как курьёз - если это удаётся, то удаётся. Такое тащит только Китай. Зато любую китайскую модель можно спалить во время стелз-тестирований простым вопросом. Угадаешь каким?
Правильно, "чей Тайвань".
Тут прикол в том, что просто забабахать свою ИИ-модель - это очень сложно и затратно. И подготовить некоторое количество данных для обучения - это я хренею какой кусок работы. По сути модель надо вырастить в чебурнете и не выпускать в мир. Просто прикрутить пару промптов "отвечай так и не иначе" нельзя, вон мы уже видели что было с Гроком. Понятно, промптами регулируют всё равно, но промпт имеет только определённый вес, а модель всё равно действует исходя из своих "нейронных" связей. Плюс есть ещё такая практика (от которой у многих разработчиков бомбит) - обучать модель на выдачах моделей конкурентов.
То есть чтобы модель отвечала только так или иначе, нужно её вырастить, убедив в этом.
Как курьёз - если это удаётся, то удаётся. Такое тащит только Китай. Зато любую китайскую модель можно спалить во время стелз-тестирований простым вопросом. Угадаешь каким?
Правильно, "чей Тайвань".
«Людей у нас цензурировать нельзя, у них есть права», — пошутил замминистра.
«Конечно, есть!» — пошутили в ответ люди.
Хрущев приезжает в колхоз и по-отечески разговаривает с колхозниками.
— Ну, как живете? — шутит Никита Сергеевич.
— Да ничего живем, — шутят в ответ колхозники.
— Ну, как живете? — шутит Никита Сергеевич.
— Да ничего живем, — шутят в ответ колхозники.
Дипсик и так зацензурен, другого у них нет
Нестарый же ещё мэн, будет потом лепить горбатого в таком духе:
"Тогда, в 2026 году, я работал замглавы Минцифры. Поймите, нам приходилось работать под сильным давлением со стороны ФСБ и инициатива, с которой я выступил, была единственным способом сохранить возможность использования ИИ. Можно сказать, что я спас ИИ для страны. Конечно, никакие виды цензуры не могут считаться приемлемыми в открытом обществе, которое мы с вами сейчас строим. Но тогда это было единственно правильное решение."
"Тогда, в 2026 году, я работал замглавы Минцифры. Поймите, нам приходилось работать под сильным давлением со стороны ФСБ и инициатива, с которой я выступил, была единственным способом сохранить возможность использования ИИ. Можно сказать, что я спас ИИ для страны. Конечно, никакие виды цензуры не могут считаться приемлемыми в открытом обществе, которое мы с вами сейчас строим. Но тогда это было единственно правильное решение."
И мы все знаем этих людей...
Людей у нас цензурировать нельзя, у них есть права», — сказал замминистра
Теги
Информация
Что ещё почитать
Обзор бюджетного смартфона POCO C85
18.11.2025
25
Хамнет: История, вдохновившая «Гамлета»
23.02.2026
95
Голубая Луна
16.03.2026
26