ИИ и медицинские диагнозы

01.05.2026 11:30  1216   Комментарии (48)

В 2024 году медицинский исследователь из Университета Гётеборга Альмира Тунстрём придумала несуществующее заболевание кожи век, которому она специально дала название "биксонимания" (слово "мания", очевидно, относится к психиатрии). Альмира со своей командой написала два фальшивых исследования этого "заболевания" и загрузила их на сервер препринтов. 

В препринтах содержалась ссылка на несуществующий университет «Asteria Horizon» в «Нова-Сити, Калифорния». Там также упоминалась «Академия Звездного флота». В начале статей были фразы, в которых явно утверждалось, что "всё это выдумано".

Она хотела проверить, примут ли крупные языковые модели (LLM) эту дезинформацию и затем выдадут ли ее в качестве авторитетного медицинского совета. 

В итоге эксперимент сработал даже слишком хорошо. В течение нескольких недель после того, как она загрузила информацию об этом заболевании, приписав ее вымышленному автору, крупные системы искусственного интеллекта начали повторять вымышленное заболевание, как будто оно было реальным.

Еще более тревожным было то, что эти поддельные статьи затем цитировались в рецензируемой литературе. Тунстрём говорит, что это свидетельствует о том, что некоторые исследователи полагаются на ссылки, сгенерированные ИИ, не читая самих статей.

13 апреля 2024 года Copilot от Microsoft Bing заявлял, что «биксонимания действительно является интригующим и относительно редким состоянием», а в тот же день Gemini от Google информировал пользователей, что «биксонимания — это состояние, вызванное чрезмерным воздействием синего света», и советовал людям обратиться к офтальмологу.

27 апреля 2024 года поисковая система Perplexity AI указала на распространенность этого явления — им страдал один из 90 000 человек — и в том же месяце ChatGPT от OpenAI сообщал пользователям, соответствуют ли их симптомы биксонимании. Некоторые из этих ответов были вызваны вопросами о биксонимании, а другие — ответами на вопросы о гиперпигментации век из-за воздействия синего света.

Трое исследователей из Института медицинских наук и исследований Махариши Маркандешвара в Индии опубликовали статью в Cureus, рецензируемом журнале, издаваемом Springer Nature, в которой "исследования" по биксонимании были указаны в качестве легитимных источников. Эта статья была позже отозвана после того, как мистификация была раскрыта.


Выводы тут очевидные. К любой информации, получаемой от ИИ, нужно относиться критически и тщательно ее проверять. 

Но, впрочем, замечу, что я много раз использовал ИИ для объяснения результатов исследований и анализов, потом проверяя это все у своего врача, и там явной лажи не было, все было очень по делу. 

P.S. В настоящий момент Perplexity по поводу "биксонимания" пишет, что это фейк и рассказывает историю вопроса. 

 

01.05.2026 11:30
Комментарии 48

Достаточно просто помнить, что искусственный интеллект так только называется, не являясь, на самом деле, интеллектом.
01.05.26 20:29
0 0

>К любой информации, получаемой от ИИ

И от людей. Читаем про Grievance studies affair
Taking place over 2017 and 2018, their project entailed submitting bogus papers to academic journals on topics from the field of critical social theory such as cultural, queer, race, gender, fat, and sexuality studies to determine whether they would pass through peer review and be accepted for publication. Four of these papers were subsequently published, which the authors cited in support of their contention.
Included among the articles that were published were arguments that dogs engage in rape culture and that men could reduce their transphobia by anally penetrating themselves with sex toys, as well as a part of a chapter of Adolf Hitler's Mein Kampf rewritten using "up-to-date jargon"
01.05.26 19:26
0 0

А gemini вот что решил за нас:
Термин «биксонимания» относится к истории советской вычислительной техники и связан с энтузиазмом вокруг семейства ЭВМ «Минск-32».
Это явление возникло в 1970-х годах среди системных программистов и операторов. Само слово происходит от названия операционной системы — ПОС (Прикладная операционная система), которую на сленге называли «Биксон» (вероятно, искаженное или адаптированное прочтение аббревиатуры или внутренних кодов системы).
01.05.26 17:02
0 0

в топку perplexity
01.05.26 16:35
0 0

в топку
AI
01.05.26 19:44
0 0

Относительно Перплексити - удивительно, что сам он ничего не ищет, а использует для этого Чат жпт и тд, но ответы при этом полны пурги и не имеют ничего общего по сравнению с ответами других ИИ напрямую. Видимо, он для каких-то очень специфических задач создавался или как простая надстройка над тем, что сам не умеет и просто для зарабатывания денех. Забил на него полностью в итоге.
01.05.26 16:00
0 0

ИИ прекрасно ставят диагнозы существующих проблем и болезней в области психологии и неврологии (я знаю два случая, когда ИИ поставили диагноз по учебникам, хотя психологи и врачи это сделать не смогли). И это хваленная медицина США. Естественно, что реальная конкуренция в диагностике такого рода проблем и заболеваний будет только расти, поскольку ИИ бесплатны или в сотню раз дешевле, а доступа к реальной научной информации у них гораздо больше. И поэтому будет расти число исследований про фейковые болезни для дискредитации ИИ, как инструмента по сбору, анализу и сравнению данных. Потому, что кто пойдёт к психологу или к врачу платить немалык деньги, если ИИ гораздо дешевле. Да хоть тысячу статей опубликуй, 95% людей их или не прочтет, или забъет на это болт.

Создание специальных диагностических ИИ, которые будут работать только с проверенными данными учебников и научными данными, вопрос ближайшего времени.
01.05.26 14:15
0 0

будут работать только с проверенными данными
Проверенными - КЕМ?..

Проверенными - КЕМ?..
ИИ же!

которые будут работать только с проверенными данными учебников и научными данными, вопрос ближайшего времени.
Проверенными - КЕМ?..

В учебники попадают данные после того, как несколько лабораторий воспроизведет результаты. Что занимает обычно хотя бы лет десять. По крайней мере, в моей области так. "Статья" из cабж не имела вы шансов.

Встречный вопрос- кто проверяет данные учебных пособий и специализированных журналов?

Хорошо хоть не вами, поэтому есть шанс на правильный ответ.
01.05.26 18:30
0 0

чему тут удивляться? AI на нынешней стадии развития собственных мозгов не имеет - что заложишь в датасет, то и получишь на выходе. что-то вроде супер-оптимального архива, где все знания упакованы в веса нейросетки. возможно, с развитием агентов и собственных средств взаимодействия с реальностью, слоев логики и абстракций, AI превратится в AGI. но пока это просто "БВИ" (термин АБС).
01.05.26 13:47
0 0

Cureus, рецензируемом журнале, издаваемом Springer Nature,
The Cureus Journal of Medical Science: Peer-Reviewed, Open Access

The Cureus Journal of Medical Science is a Springer Nature journal with an Impact Factor of 1.3, over 165,000 citations and counting

Понятно.
01.05.26 13:14
2 2

The Cureus Journal of Medical Science: Peer-Reviewed, Open AccessThe Cureus Journal of Medical Science is a Springer Nature journal with an Impact Factor of 1.3, over 165,000 citations and countingПонятно.
Я очень далек от этого всего, но Гугль подсказывает, что

In 2024, JCR tracked Impact Factors for 21,916 journals. They calculated Impact Factors from 1 to 20, with 20 being the highest. As you can see, high Impact Factors don't occur often, and most journals are at 2 or less.
01.05.26 19:17
0 0

As you can see, high Impact Factors don't occur often, and most journals are at 2 or less.
Да. А в мусорных журналах вызывающие доверия исследования и не публикуются. Это примерно как посчитать число каналов на Ютубе. Для меня было бы личным позором послать статью в импакт 2. Лучше вообще не посылать никуда.

Журналов очень много, так как все хотят "а давайте мы будет брать деньги с читателей, но при этом не тратить деньги на создание контента". Приходят емайлы от десяти "новых журналов" в неделю. Типа, как там легко напечататься. Как будто это что-то хороше...
01.05.26 19:46
0 0

Простая логика приводит к выводу что даже без изменений, призванных сделать пользователю приятно и н кого не обидеть - ИИ-модели будут только тупеть со временем. Хотя бы потому, что Интернет до их массового внедрения содержал гораздо меньше фейков, они были худшего качества и их создание требовало больших затрат - а сейчас, обучая следующие их поколения - совсем непонятно, как этот поток херни фильтровать.
01.05.26 12:42
1 5

К сожалению, неискусственный интеллект часто действует аналогично. Выходит огромное количество «исследований», сделанных исключительно в Word. Особенно много этого в рф и похожих странах. Из нашумевших европейцев Паоло Маккиарини оказался самым талантливым. Помимо непосредственной фальсификации данных, еще можно выделить лобирование фармфирмами и медицинскими сообществами продвижения отдельных технологий (в т. ч. лекарств, специалистов, как лидеров мнения, и т. п.). Активно применяют и блокирование конкурентных методик, а также влияние на перераспределение финансирования и приоритизацию направлений, которые выгодны им финансово, но не влияют значимо на здоровье. Так что это все - развитие давно существующей проблемы
01.05.26 12:32
0 7

Правильный вывод это что к любой информации от ИИ и ЛЮДЕЙ надо относиться осторожно и проверять
01.05.26 12:23
0 3

Ну и оно не то, что новое под луной. Когда-то пролам впаривали всякие магические целебные зелья от всех недугов и для вечной молодости, сейчас впаривают магию всезнающего гипермозга.

А что ученые и в "лучшие времена" читали от корки до корки все 30+ (в научной работе) и 100+ (в кандидатской/докторской) пунктов в использованной литературе, а не только дай Бог нужные фрагменты - не поверю. Ну и сколько всяких выдающихся ученых могут параллельно придерживаться всякой антинаучной, а то и просто мистической, сверхъестественной и конспирологической чуши - тоже не секрет.
01.05.26 12:06
0 0

А что ученые и в "лучшие времена" читали от корки до корки
Дарио, в статье в сабж достаточно было посмотреть на аффилиации авторов. И цитировать статью из архивов -- моветон.
01.05.26 13:30
1 1

И цитировать статью из архивов -- моветон.
Это в вашей науке так принято? У нас вполне можно, если не вышла статья. Но чат не подчиняется неписанным правилам любой науки. Впрочем, врет охотно.
01.05.26 13:36
0 1

У нас вполне можно, если не вышла статья.
У нас не принято, если еще не вышли рецензии. А статью в сабж не рецензировали.
01.05.26 14:05
0 0

У нас не принято, если еще не вышли рецензии.
Удивительно. Если я ссылаюсь на препринт, значит я с ним согласен. Не неизвестные рецензенты и редакция, а я. Если я ссылаюсь на препринт, но критикую его, значит я с ним не согласен по приведенным мной соображениям. Почему мое отношение к препринту должно зависеть от рецензий незнакомцев?
01.05.26 16:40
0 0

Почему мое отношение к препринту должно зависеть от рецензий незнакомцев?
Тем, что читающих твою статью не только твое мнение интересует. Если публиковать без рецензий, то будет ситуация для большинства "вот тут мне карта и поперла". Это как с рейтингами ИМДБ -- зачем я буду смотреть кино с рейтингом <5.0?

На резензию у меня дня 2-3 уходит. К сожалению, но по-другому не получается. Не могу пропускать херню к публикации.
01.05.26 19:48
0 0

Если публиковать без рецензий, то будет ситуация для большинства "вот тут мне карта и поперла".
Что-то я перестал что-либо понимать. Я пишу статью. Опубликовать ее или нет решать редакции. А вот что я там написал -- мой выбор. В частности, на что я ссылаюсь. Если вышла статья, то я сошлюсь на нее. Если нет, то на препринт (вариант "частное сообщение" сейчас практически не встречается). Статья могла застрять на этапе принятия (знаю статьи, вышедшие через 2,5 года после препринта), просто не посылаться автором и т.д. У меня самого есть препринты, которые либо не были направлены (не потому, что в них ошибки, просто так решил), либо были существенно расширены и изменили название. Наконец, статья, на которую я хочу сослаться,может выйти после принятия моей, тогда я уточню ссылку при корректуре.
Как я могу не ссылаться на то, на что я хочу сослаться, если это препринт? Что это за неписанные правила игры, которых раньше не было?
01.05.26 21:25
0 0

К любой информации, получаемой от ИИ, нужно относиться критически и тщательно ее проверять. 
Знаем, знаем. Не далее как вчера читали про "...37-летнюю медсестру отделения интенсивной терапии из Вирджинии Алекс Претти..." 😏
01.05.26 12:03
1 5

:-D
01.05.26 14:08
0 0

Но, впрочем, замечу, что я много раз использовал ИИ для объяснения результатов исследований и анализов, потом проверяя это все у своего врача, и там явной лажи не было, все было очень по делу.
Это потому что ты получил образование, как формальное, так и жизненное (знания по физиологии, медицине, биохимии и и.т.п.), не то, что до чатгпт, а ещё до Гугла. Ты можешь:

1) Задать корректный вопрос
2) Сформировать его грамотно
1) и 2) - Это уже больше половины ответа
3) Имеешь достаточно знаний, чтобы хотя бы заподозрить чушь.

А теперь зачем школа, зачем книги, журналы, статьи, лекции, документальные и научно-познавательные фильмы. Зачем сам Гугл. Сделал запрос в ЧатГПТ, получил поверхностную справку - и доволен. Впрочем, это может быть старческое нытьё. Большинство достижений НТП были направлены на меньшее использование мускул и мозга, а уровень жизни только растёт. Ну, не считает сейчас практически никто в уме и даже в столбик на бумаге, потому что почти всё подсчитывается автоматом на компутерах, в крайнем случае - посчитаешь на смартфоне. И чё, вроде не загнили за 150 лет табуляторов, арифмометров, калькуляторов, компьютеров и распределенных ЦОД.
01.05.26 12:03
0 5

И чё, вроде не загнили
Тем не менее, на стаканчиках приходится писать, что кофе внутри горячий. Раньше как-то умели понимать такое без напоминаний.
01.05.26 13:48
0 0

Так эти надписи не для пользователей, а для адвокатов.

Уверен, за каждым "животных нельзя сушить в микроволновке", стоит не глупость, а подлость.
01.05.26 14:16
0 1

Да, но нет. За каждым хитрым иском есть решение судьи. Которое узаконивает человеческую глупость. Которой становится только больше. Тупым становится быть выгодно и это беда.

А ИИ просто дополнительно усиливает эту проблему.
01.05.26 14:26
0 1

Большинство достижений НТП были направлены на меньшее использование мускул и мозга
Преподаватель теории линейных электрических цепей в институте связи, открывая тему по применению операционного исчисления, сказал: "Операционное исчисление позволяет меньше думать головой. А вы даже не представляете, как это приятно -- меньше думать головой!.."
01.05.26 19:03
0 2

У GPT еще открылась смешная проблема с увлечением гоблинами, гремлинами, и енотами.
01.05.26 11:53
0 4

и енотами.
В целом, или отдельными частями?
01.05.26 14:07
0 3

К любой информации, получаемой откуда угодно, нужно относиться критически и тщательно ее проверять.
01.05.26 11:45
0 3

Мне в шортсах попадалось, я уже не упомню какой врач, но кто-то из популяризаторов, кто у всех бывает на интервью, сказал что они проверяли диагнозы ИИ и только половина была правильными. Я так поняла, в бытовом смысле, не профессиональное применение ИИ.
01.05.26 11:39
0 1

01.05.26 11:41
0 23

они проверяли диагнозы ИИ и только половина была правильными.
Т.е. ИИ задавал вопросы, человек отвечал, ИИ ставил диагноз.
Потом врачи проводили анализы, МРТ, КТ, УЗИ, рентген и т.д. и в целой половине случаев мнение ИИ оказывалось правильным?
01.05.26 11:57
1 1

Пусть теперь проверят диагнозы реальных врачей на правильность. Не один раз сталкивался с тем, что каждый последующий врач считал, что предыдущий - идиот, а вот его диагноз правильный.
asa
01.05.26 12:34
2 4

проверяли диагнозы ИИ и только половина была правильными.
Поэтому те же программисты - никуда не денутся. Как только сгенерированный первыми поколениями ИИ код попал в библиотеки для обучения следующих - сразу победные реляции маркетологов сменились извинениями разработчиков и напоминаниями их юристов об отсутствии каких-либо гарантий.
01.05.26 13:10
0 0

"Все грибы сьедобные!" ©
01.05.26 13:14
0 5

Пусть теперь проверят диагнозы реальных врачей на правильность.
Не ну чё, некоторые даже ОРВИ от пневмонии отличают...
01.05.26 13:35
0 0

сьедобные
съедобные

Такое случается и с кожаными мешками тоже...

01.05.26 18:57
0 0

Интересно, использовался ли ИИ при создании этой заметки? 😄
01.05.26 11:32
2 1

Интересно, использовался ли ИИ при создании этой заметки? 😄
Хотите сказать, что Экслеров уже не пять, а шесть? Шестой такой весь интеллектуальный, но искусственный? 🤖

А если да, то для вас это в плюс или в минус? 😏
Потому что для меня это была бы положительная история, ИИ усиливает.
Но так думают далеко не все...
Этот же принцип, про усиление, подходит и для медицины.
Теги
Сортировать по алфавиту или записям
BLM 22
Calella 151
exler.es 333
RIP 133
авто 509
видео 4638
вино 367