Адрес для входа в РФ: toffler.xyz

Откуда ИИ черпают информацию

31.08.2025 13:10  3978   Комментарии (134)

Поскольку все больше и больше людей обращаются к чат-ботам с искусственным интеллектом, чтобы получить ответы на свои вопросы, стоит обратить внимание на то, откуда берутся эти ответы ИИ и какие платформы являются наиболее популярными источниками ответов ИИ.

Компания Semrush провела свое исследование по поводу того, где именно LLMs модели ИИ  (Google Search Overviews, Google AI Mode, ChatGPT и Perplexity) черпают информацию при поиске: в исследовании использовали 5 тысяч ключевых слов и 150 тысяч цитат LLM.

Согласно этому исследованию, Reddit является лидером по количеству ответов ИИ, значительно опережая Википедию и YouTube.

Преимущество Reddit заключается в том, что он наполнен информацией, полученной от пользователей, то есть эти ответы написаны реальными людьми, а система рейтинга с помощью голосования за и против позволяет легко найти самые ценные ответы по данной теме.

31.08.2025 13:10
Комментарии 134

Кстати об ИИ.
Говорят, что песню "3 сентября" раскручивали, чтобы прикрыть то, что было в Беслане.
Кто-нибудь может сделать ИИ-версию песни про это?
Немного возможного текста:
Третье сентября, день Беслана.
День, когда врала Симоньян,
Типа, там детей очени мало –
И приказ штурмовать был дан.

Я календарь переверну –
И снова врёт нам Симоньян.
И Соловьёв, и кто ещё –
Перечислять противно нам.

Третье сентября, день Беслана.
День, когда врала Симоньян,
Врёт она теперь постояннно
.... (здесь не придумал, можете всё поменять, лицензия WTFPL)
01.09.25 09:11
0 1

ИМХО, вырождение (инцест) ИИ идет полным ходом.
Попросил ChatGPT выбрать и порекомендовать мне небольшой планшет для чтения.

Задачу он понял правильно: сам ChatGPT вначале подтвердил, что будет искать планшет на 8-9 дюймов.

Потом присылает список-табличку:

• iPad Mini (6th Gen)
• BOOX Nova Pro
• Samsung Galaxy Tab A 8.0
• LG G Pad 5
• ZTE K92 Primetime

Странная подборка. Плюс у половины списка моделей какие-то странные левые характеристики. Думаю, откуда он их взял? Иду по ссылке, попадаю на сайт с этой левой подборкой и понимаю, что статья на сайте написана ИИ ))))

Так что интернет стремительно наполняется ИИ-сгенерированным шлаком, который в свою очередь становится очередным питанием для ИИ - и так по кругу.
31.08.25 22:17
0 9

Да, это дополнительная проблема.
31.08.25 23:04
0 0

Да, это дополнительная проблема.
Это корневая проблема заложенная в сам принцип сбора информации.

Есть инструмент от Гугла: notebook llm
И отдельная программа для локального запуска llm на домашнем компе: anything llm.
В них можно загрузить целые документы, ссылки на сайты, на ролики на Ютубе и всю информацию она языковая модель будет искать только в указанных источниках.
Таким образом можно учиться выбирая из больших объемов информации нужную в данный момент. Или например искать в чем сходятся и в чем расходятся мнения из указанных источников.
Это все инструменты и если их использовать правильнее то и результаты будут лучше.
А если натренированному генератору текстов доверить свое здоровье и жизнь то чтош... Дело Дарвино будет жить пока живут люди
31.08.25 21:52
0 0

У меня есть критерий полезности ИИ для работы. В свое время мы рассказывали это покупателям, и я сейчас спрашиваю ИИ: как рассчитать Фурье образ последовательности Задова-Чу? Когда ИИ будет давать толковый ответ на этот и подобные вопросы, возьмем его на работу.
PS Ежели кому любопытно, нахрена она нужна, эта последовательность используется телефонами для установления связи со станцией.
31.08.25 20:35
0 4

Когда ИИ будет давать толковый ответ на этот и подобные вопросы, возьмем его на работу.
У меня тоже есть критерий, который я сам давно еще придумал - про роботов (то есть тоже относится к способностям ИИ). Вот когда появится на рынке домашний робот, которого реально можно купить: и он будет способен на твоей произвольной кухне найти в холодильнике, что там у тебя сегодня есть, сделать из этого бутерброд и принести к дивану перед телеком - вот тогда и поговорим (начнем всерьез бояться восстания машин, массового замещения рабочих и.т.д). Я называю это "критерий бутерброда". На самом деле этот критерий вовсе не шуточный, как может показаться - это посложнее, чем автомобильный автопилот. И пока до сих пор за рамки тщательно подготовленных технологических демо увы дело так не заходит:

Когда ИИ будет давать толковый ответ на этот и подобные вопросы, возьмем его на работу.
Щас они подкрутят (добавят иф-зен) специально для тебя. Для Трампа или Путлера же подкручивают.
31.08.25 20:55
1 4

Щас они подкрутят (добавят иф-зен) специально для тебя. Для Трампа или Путлера же подкручивают.
Ну, для всемогущих идиотов всегда можно подкрутить. А я, по крайней мере, не всемогущ, так что для меня не будут. Ну и задача не совсем тривиальная - сама последовательность описана более-менее везде, в прямую посчитать Фурье образ можно, но это очень неэкономично. Есть аналитические решения, и вот они уже далеко не везде описаны.
31.08.25 21:56
0 0

Он и подсунет какую-нить формулу с ошибкой, как подсунул команде рыжего идиота для расчета тарифов. Все равно же проверять придется.
31.08.25 22:14
2 0

Он и подсунет какую-нить формулу с ошибкой, как подсунул команде рыжего идиота для расчета тарифов. Все равно же проверять придется.
Проверить нетрудно, и необходимо. Более того, я эту формулу знаю (по крайней мере, одну из версий). Это проверка качества ИИ, в данном случае.
31.08.25 23:06
0 0

Впервые услышал про эту последовательность; но в чем сложность просто посчитать любым FFT- алгоритмом? Так понимаю, что это все дискретно, и требуется посчитать только один раз и записать в память устройства раз и навсегда. В чем сложность? Что они длинные, нужно много разных последовательностей, и хранить их в памяти - не вариант?
31.08.25 23:20
0 0

Впервые услышал про эту последовательность; но в чем сложность просто посчитать любым FFT- алгоритмом? Так понимаю, что это все дискретно, и требуется посчитать только один раз и записать в память устройства раз и навсегда. В чем сложность? Что они длинные, нужно много разных последовательностей, и хранить их в памяти - не вариант?
В том, что их придется считать много раз, а это ненужно - есть аналитическое решение. Последовательность не очень длинная, зависит от двух параметров, и её длина не степень двух, т.е. простой FFT не подходит.
en.m.wikipedia.org
Можно, конечно, нагенерить и держать в памяти, но тоже лишняя сложность, так как есть достаточно простая формула, чтобы посчитать на лету.
31.08.25 23:53
0 0

Можно, конечно, нагенерить и держать в памяти, но тоже лишняя сложность, так как есть достаточно простая формула, чтобы посчитать на лету.
Заинитриговал ). Тогда спроси у ИИ-ов, почему они не используют эту формулу.
01.09.25 01:13
0 0

Заинитриговал ). Тогда спроси у ИИ-ов, почему они не используют эту формулу.
Да мы используем, никаких проблем. Просто это для меня показатель, насколько ИИ стало «специалистом».
Это уровень на шаг дальше копирования Википедии в качестве ответа и будет означать, что ИИ стали кормить умными книжками.
01.09.25 01:19
0 0

А! Тогда лучше было бы уточнить: "У меня есть критерий полезности ИИ для моей работы" или "...для работы в моей профессиональной области".

Разработчики ИИ-тов для разных профессиональных сфер вроде как пичкают их исключительно релевантными для соответствующей сферы данных, а дешёвых "всезнаеек" для широкой публики достоверной узкопрофильной информацией не пичкают. И в ближайшем обозримом будущем таковое положение, полагаю, не изменится.
01.09.25 02:01
0 0

У меня тоже есть критерий, который я сам давно еще придумал - про роботов (то есть тоже относится к способностям ИИ). Вот когда появится на рынке домашний робот, которого реально можно купить: и он будет способен на твоей произвольной кухне найти в холодильнике, что там у тебя сегодня есть, сделать из этого бутерброд и принести к дивану перед телеком - вот тогда и поговорим (начнем всерьез бояться восстания машин, массового замещения рабочих и.т.д). Я называю это "критерий бутерброда". На самом деле этот критерий вовсе не шуточный, как может показаться - это посложнее, чем автомобильный автопилот. И пока до сих пор за рамки тщательно подготовленных технологических демо увы дело так не заходит:
Да вроде простая задача для робота. Бояться надо начинать, когда он принесет бутер к дивану и со словами "ну чо ты вылупился?!" сам сядет его есть, сменив канал на телике.

Да вроде простая задача для робота. Бояться надо начинать, когда он принесет бутер к дивану и со словами "ну чо ты вылупился?!" сам сядет его есть, сменив канал на телике.
Задача совершенно нетривиальная. Аналогичная по сложности - собрать разбросанную по дому одежду, вывернуть все на правильную сторону, аккуратно разложить по полочкам.
01.09.25 05:00
0 2

А, почитал вчера немного перед сном. Кстати полезная (возможно) вещь, стоит иметь в виду.
01.09.25 09:26
0 0

собрать разбросанную по дому одежду, вывернуть все на правильную сторону, аккуратно разложить по полочкам.
А это зачем?? 😲
01.09.25 10:42
0 0

Обидно, что все (почти все?) ИИ не учатся на том, на чем учатся умные люди. Т.е. у них нет доступа к научным статьям, к патентам, даже к GitHub-y.
Т.е. любой ответ будет простой и неполный, получить ответ на сложный профессиональный вопрос почти невозможно.
ПыСы: проверил: ситуация немного улучшилась, Gemini получил доступ к аннотациям статей и патентов, но пока не к самим текстам.
31.08.25 20:08
0 3

Обидно, что все (почти все?) ИИ не учатся на том, на чем учатся умные люди. Т.е. у них нет доступа к научным статьям, к патентам, даже к GitHub-y.
Вероятно, за доступ к этой информации разработчики сначала должны заплатить, а их жаба давит. Потом придётся расплачиваться конечным потребителям ИИ, которые тоже не горят желанием раскошеливаться. Хотя к этому, имхо, всё равно придём.
31.08.25 22:06
0 0

Деталей не знаю, бесплатные статьи есть в arxiv.org а бесплатный доступ к патентам - на Гугле, patents.google.com
Но он и туда не ходит, пользуется Reddit-ом.
31.08.25 23:09
0 0

Я имела в виду официальный договор на использование информации из научных статей и патентов. Авторское право - штука тонкая.
01.09.25 01:10
0 1

У Реддита тоже повесточка. Там даже на форуме для научных статей теперь те работы, что говорят о вреде повального завлекания в трансгендеры, выпиливают под предлогом того, что исследователи не горят восторгом насчет трансгердерной теории. Если напихать побольше политических активистов, то это возможно.
Просите к запросам ссылки. Зная источники, проще судить о достоверности. Если нужны исследования с достоверно научными результатами, то добавляйте:
Use peer-reviewed articles. Provide links.
Потому что сама эта штуковина работает 1) усреднением, а средний человек, если и выучил когда-то статистическую значимость, то за несколько лет забудет (и с удовольствием), 2) на отдельные темы существуют так называемые RAG, когда ответ выдается в соответсвии с сохраненными в памяти ИИ текстами.
31.08.25 18:53
0 2

Tо добавляйте:
Use peer-reviewed articles. Provide links.
Так он и послушался.
31.08.25 20:03
1 3

Так на ссылки можно смотреть. И если указывать конкретно, например pubmed, то там и смотрит. Есть еще scispace, сразу смотрит на вебсайты со статьями. Можно смотреть, где он ищет. Хотя researchgate почему-то не включен.
В общем, как обычно - доверяй, да проверяй. Плюс в том, что поставляется материал для проверки.
31.08.25 20:09
0 0

В общем, как обычно - доверяй, да проверяй.
Короче, я по старинке пока буду продолжать искать. Мне достаточно прямого поиска в Сколаре (хотя я доверяю алгоритму, который он юзает). Сколько раз я ему приказывал следовать инструкциям, но он извинялся и продолжал не следовать.
31.08.25 20:57
1 0

Если для поиска и без особых галлюцинаций - попробуй perplexity.
01.09.25 01:21
0 0

Так оно и без исследования понятно. Последнее время в поиске непропорционально часто выскакивают ссылки на Reddit, если спрашивать не какие-то фундаментальные вопросы, а что-то бытовое. Да и в вопросах по программированию ссылки на Reddit уже сильно потеснили тот же stackoverflow.
31.08.25 18:42
0 2

Я вообще не понимаю нафига использовать эти ИИ вне роботизации и почему многие с ними носятся, как с писаной торбой. Для рутиной работы для бизнесов ‐ они хороши, это без вопросов, но для чего они мне могут пригодиться - ума не приложу. Искать и анализировать информацию я привык сам, меня так учили, и уже фиг кто переучит. Зная как устроены машины изнутри и как происходит процесс обработки информации, я никогда не смогу им доверять не математические вопросы, да и зачем, если я могу сам решать нужные мне задачи. А ещё и платить за результат, правильность которого под большим вопросом, да нахрена?
Я лишь однажды попросил ИИ проверить точность перевода на английский... Было грустно и смешно. Теперь только сам и с помощью друзей. А для серьёзных дел я лучше заплачу гораздо больше профессиональному редактору, чем в разы меньше, но глупой машине, которая городит несуразности одна на другую. Эту схему токенов Сема Альтман сломать не сможет, и в конце концов выйдет "крокодилий хвост в полночь", как в том старом рассказе "Гениак" Андрея Балабухи про супергениальную машину, которая оказалась супершизофренником.
Нет, вы все как хотите, но лично эта хрень ни к чему.
А про реддит ничего не скажу, никогда в жизни не пользовался и не читал до сегодняшнего дня. Сегодня полюбопытствовал. Десяти минут хватило, чтобы больше никогда туда не заходить.
31.08.25 18:03
4 1

Для рутиной работы для бизнесов ‐ они хороши
надеюсь, что бизнесы, с которыми имею дело, не пользуются ИИ для принятия решений
31.08.25 18:07
1 2

Десяти минут хватило, чтобы больше никогда туда не заходить
Это вы зря. Там есть всё. Мне кажется что у вас получилось как в притче про слепых и слона. Можно зайти в определенные группы и сказать что Reddit это Pornhub. А можно зайти в другие группы и найти обсуждение чем Shimano 105 хуже чем Shimano Ultegra. А лучше туда просто заходить через ссылки которые выдает гугл. Там очень много хорошей информации, по крайней мере в его англоязычной части.
31.08.25 18:52
0 5

А можно зайти в другие группы и найти обсуждение чем Shimano 105 хуже чем Shimano Ultegra.
Про реддит я хотябы слышал, а это вообще впервые.
Во первых, я ненавижу читать длинющие ветки обсуждений. Во вторых, какое кредабилити у того, что кто-то написал на каком-то форуме? Почему я должен доверять хрен знает кому? И ссылаться я и тоже должен на непойми кого с какого-то редита? С тем же успехом можно спрашивать что-либо на людной площади. И то, если спрашивать перед каким нибудь университетом, то шансов на нормальный ответ будет гораздо больше.
31.08.25 19:45
0 2

Искать и анализировать информацию я привык сам, меня так учили, и уже фиг кто переучит.
Диды искали!
Я лишь однажды попросил ИИ проверить точность перевода на английский... Было грустно и смешно
Нет, здесь не должен лажать если что-то касается простой грамматики/словаря. Если что-то узко специальное, то да, вполне, может сгаллюцонировать .
А про реддит ничего не скажу, никогда в жизни не пользовался и не читал до сегодняшнего дня. Сегодня полюбопытствовал. Десяти минут хватило, чтобы больше никогда туда не заходить.
Лол. А про интернет не скажу, никогда в жизни не пользовался и не читал до сегодняшнего дня. Сегодня полюбопытствовал. Десяти минут хватило, чтобы больше никогда туда не заходить.
31.08.25 19:47
0 4

Например, сейчас наша компания подготовила и дает покупателям ИИ, который натренирован на всей документации и всех примерах. Там одной документации больше двух тысяч страниц, и примеров много сотен. Удобно, когда инженер не должен догадываться, где о его проблеме написано, а может спросить в явном виде.
31.08.25 20:29
1 1

Про реддит я хотябы слышал, а это вообще впервые.
Во первых, я ненавижу читать длинющие ветки обсуждений. Во вторых, какое кредабилити у того, что кто-то написал на каком-то форуме?
Ну, можешь не доверять. Если у тебя какая-то какая-то проблема в бытовом приборе, ты можешь его выбросить, а можешь найти тред о ней, почитать людей, у которых такое уже было, и пофиксить ее за короткое время. Иногда проблема совсем не там, где ее ожидаешь увидеть.
31.08.25 20:35
0 2


Диды искали!
Хорошо хоть не икали. Скоро так дойдёте до уровня героев древнего рассказа Азимова, где программистами были те, кто мог составить сложный запрос электронной машине. Причём голосом, письменность и счет они уже забыли.


Нет, здесь не должен лажать если что-то касается простой грамматики/словаря. Если что-то узко специальное, то да, вполне, может сгаллюцонировать .
Для проверки грамматики, словаря и даже, временами, пунктуации, есть Word, он с этим неплохо справляется. А для вопроса точности использования слов и выражений решил спросить ИИ. Сразу скажу, что дипэль гораздо лучше с этим справился. А если взять обычный бумажный словарь и открыть реверсо, то никакой ИИ и рядом не валялся (там редитовцев и джипитишников от упоминания таких словарей ещё не вынесло из реальности? 😁).

Лол. А про интернет не скажу, никогда в жизни не пользовался и не читал до сегодняшнего дня
Сравнивать некие площадки с глобальной сетью очень умно. Некоторых прям корежит от того, что кому-то похрен их любимые инфо завалы сомнительной свежести и точности. Лучше рыться в Jstor, там хотябы кредабилити не обсуждается.
31.08.25 20:35
1 1

А, ну в вопросах такого уровня это вполне может быть полезно. Я такое редко ищу, и если было нужно, то находил или в ответах на сайтах производителя, или на ютуб.
31.08.25 20:44
1 0

Вот это как раз их ниша, искать в завалах нужные части текста.
31.08.25 20:45
0 0

надеюсь, что бизнесы, с которыми имею дело, не пользуются ИИ
Думаю, что дураков, у которых ИИ некотролируемо принимает решения с юридическими или финансово значимыми последствиями, все еще нет.
31.08.25 21:42
0 0

Сравнивать некие площадки с глобальной сетью очень умно.
В информационном плане Reddit вполне можно рассматривать как самодостаточную систему. Но пойнт был в том что нельзя, почитав непонятно что 10 мин составить представление о таком ресурсе как реддит. Меня не корежит, на Реддит много всякого сомнительного лежит, просто замечание мимокрокодила.
31.08.25 22:10
0 2

дураков, у которых ИИ некотролируемо принимает решения с юридическими или финансово значимыми последствиями, все еще нет.
См историю, как команда Трампа устанавливала первую порцию тарифов. У них антиваксер -- министр здравоохранения, ничего удивительного.
31.08.25 22:16
1 0

См историю, как команда Трампа устанавливала первую порцию тарифов.
Ну дык, не они первые, опять - весосали из пальца с помощью ИИ, но подписывались под финальными цифрами сами, без автопена.

У них антиваксер -- министр здравоохранения

Бывает, вон в Аргентине президент - либертарианец.
31.08.25 22:38
0 1

Ну дык, не они первые, опять - весосали из пальца с помощью ИИ, но подписывались под финальными цифрами сами, без автопена.
Те же самые люди раньше высасывали из пальца с помощью астролога или таролога. Не думаю, что переход даже на самый примитивный ИИ для них такой уж регресс.
31.08.25 23:03
1 0

Те же самые люди раньше высасывали из пальца с помощью астролога или таролога.
Вслед за братом велосипедистом, теряете мою мысль: не важно от куда берется решение, важно что его принимает человек. Пока.

"У каждой аварии есть имя, фамилия и должность." Л.М. Каганович
01.09.25 00:11
0 1

"У каждой аварии есть имя, фамилия и должность." Л.М. Каганович
Л.М. Каганович, как нарком путей сообщения, даже мог точно сказать, какая именно должность.
Стрелочник, разумеется.
Ну не нарком же, в самом деле!
01.09.25 00:16
0 0

, как нарком путей сообщения, даже мог точно сказать, какая именно должность.
Как изящное забалтывание - принимается. Как аргумент - так себе.
Никто не готов к тому, что железка мудреная будет отвечать за принятие решений. Ибо где отвественность там и полномочия, а вот этим люди делиться не готовы.
Так что товарищ майор, ну или общественный обвинитель в суд будут тащить кого-то с именем, фамилией и должностью. И как обычно - стрелочника.
01.09.25 00:40
0 0

по крайней мере в его англоязычной части.
Однозначно. Вообще полезность англоязычного и русскоязычного сегментов интернета просто несопоставимы. На английском языке ты всегда найдешь полезную инфу, прочтя спокойные, ровные, доброжелательные дискуссии. Русскоязычный интернет в большинстве случаев - это просто шизоидная клоака, где тебя заплюют, зачмырят за любой вопрос. И всё как всегда закончится срачем.
Классический пример: девушка просит посоветовать сервисы доставки еды, чтоб семью иногда кормить. Угадайте, что будут истерить в каментах разные идиоты обоих полов? Правильно: ах ты, шалава, вместо того, чтоб готовить самой, небось там по хуям скачешь, проститутка, лишать таких мамаш права на материнство, забрать детей в интернат, куда катится этот мир, вот мы в свое время жили на кухне, за плитой с утра до вечера, чтоб муженек драгоценный домашнее кушал, а современные бабы никчемные и ленивые!

Обидчивым поцреотам рашки спешу сообщить, что в украинском интернете, к сожалению, не лучше.

Иногда даже мне кажется, что я, стыдно сказать, понимаю Гитлера. Хотя искренне ненавижу эту тварь и то, что он натворил.
01.09.25 02:49
1 1

Почему я должен доверять хрен знает кому?
Ну зачем сразу доверять. Можно почитать разные мнения и сформировать свое, на базе этой и другой информации.
01.09.25 07:29
0 0

Вообще полезность англоязычного и русскоязычного сегментов интернета просто несопоставимы. На английском языке ты всегда найдешь полезную инфу, прочтя спокойные, ровные, доброжелательные дискуссии.
Даже если не брать дискуссии, обычные статьи намного менее полезны. Если хочешь, например, разобраться в каком-то бытовом вопросе. Например, вредна ли жёсткая вода. На русском первыми будут статьи на сайтах компаний, продающих очистные системы. Естественно, вывод всегда будет, что жёсткая вода ужасно вредна и нужно с этим что-то срочно делать. Или если искать симптомы какой-то болезни, то это будут статьи от диагностического центра, нацеленные на то, чтобы ты сразу все бросил и бежал к ним записываться. Объективную информацию от незаинтересованных лиц найти практически не реально.

Неудивительно, что у людей на постсоветском пространстве столько заблуждений и страхов, которые поиск в интернете не развеивает, а только усиливает.
01.09.25 08:27
0 0

Иногда даже мне кажется, что я, стыдно сказать, понимаю Гитлера.
Неожиданный вывод. Вы в курсе, как примерно выглядела и на каких интонациях велась среднестатистическая общественная дискуссия в цивилизованной и доброжелательной Германии в конце 1930-х? Если не в курсе - почитайте хоть "Берлинский дневник" Ширера.
01.09.25 13:34
0 0

часто напрягаю визуальные модели, типа VEO, hailuoai, Firefly на тему генерации видео...там все сложно, не так красиво как в рекламных роликах, так что реальное полжение вещей и "рекламы" в разных мирах живут
31.08.25 16:34
0 1

так что реальное полжение вещей и "рекламы" в разных мирах живут
Ну это вообще вся реклама, не только ИИ.
Пару раз присутствовал на презентации нашего софта (я один из программистов), как там всё красиво расписывали и волосы на лысине становились дыбом 😄
31.08.25 17:41
0 1

А что значит "черпает информацию в google"? Разве на google.com хранится какая-то информация?
31.08.25 16:27
2 0

А что значит "черпает информацию в google"? Разве на google.com хранится какая-то информация?
Я воду беру в кране. Это не значит, что в кране хранится вода.
31.08.25 17:01
0 5

Я воду беру в кране. Это не значит, что в кране хранится вода.
Ща кто-то точно докопается, что воду берут "из крана", а не "в кране" 😄
Но ваш аргумент от этого не пошатнулся.
31.08.25 17:31
0 0

А что значит "черпает информацию в google"? Разве на google.com хранится какая-то информация?
Ну если ответить так же душнильно, то да, хранится информация о том, где хранится информация, отвечающая запросу пользователя.
31.08.25 17:32
0 0

А что значит "черпает информацию в google"? Разве на google.com хранится какая-то информация?
Насколько я понимаю, на серверах Гугла хранится очень много результатов поиска, из-за чего далеко не всегда удается удалить информацию «из интернета».
31.08.25 17:40
0 2

Разве на google.com хранится какая-то информация?
Храниться, не беспокойтесь. Не как текстовые копии, а как довольно специфичный формат частности и последовательности слов - но первые пару килобайт текста любой страницы в индексе из этого можно восстановить процентов на 90 полноты.
31.08.25 19:36
0 0

А что значит "черпает информацию в google"? Разве на google.com хранится какая-то информация?
Гугл - это такая большая кастрюля, в которой варится суп человеческих познаний, начиная от теории струн и до графика размера груди Памелы Андерсон в разные годы. А мы все столпились вокруг этого котла и черпаем, черпаем.. Очень утомительно. И вот умные люди придумали автоматического черпальщика - который специально для вас зачерпнет именно тот фактик, который вам нужен. Теперь, если вы любите свиной хрящик вам не надо часами напролёт черпать и черпать и черпать, в надежде что вам в ополонник таки попадется искомый хрящик. Теперь у вас есть персональный черпальщик, который будет делать весь грязный поиск а вас, вам только останется лежать на диване задрав ноги и пошире открывать рот.
31.08.25 19:56
3 0

Вот когда он до многолетних залежей Ответы Mail.ru доберется, тогда и произойдет реально квантовый скачок роста интеллекта!
31.08.25 15:51
0 14

Лишь бы в ответы Микрософта его не пускали.
Разорвёт нафиг.
31.08.25 16:07
0 2

Лишь бы в ответы Микрософта его не пускали.Разорвёт нафиг.
Не пускайте ответы Майкрософта в ИИ, ИИ от этого тупеет 😄
Будет давать бесполезные советы и тут же клянчить, чтобы вы пометили этот ответ как полезный и правильный 😄
31.08.25 17:38
0 2

тогда и произойдет реально квантовый скачок роста интеллекта!
Так-то он непрерывно происходит, на эту тему полно исследований в тех же интернетах, особенно на воспроизводимые штуки типа код написать. За пару лет бума нейронок процент генерируемого кода, который успешно запускается (что он при этом делает и насколько соответствет условиям задачи - не проверяется) упал примерно с 60 до 40 процентов на том же наборе задач.
31.08.25 19:41
0 1

давать бесполезные советы и тут же клянчить,
"От этой картины очень большая польза!" (с) Мама
31.08.25 21:39
0 1

За пару лет бума нейронок процент генерируемого кода, который успешно запускается
Немедленно вспоминается "И вы тоже говорите..." Может вайбкодер из меня гавно, может задачи мои все нечеловеческие. Но три топовых модели напороли мне такой шняги, что я потратил уйму сил выпрямляя эту очень правдоподобную хрень. Пришлось таки самому разбиратся и переписывать как надо.

Примечательно, что если начинаешь задавать наводящие вопросы, новые модели тут же включают заднюю и начинают предлагать новый вариант, иногда работающий.
Точно, как лучшие друзья Пафнутия с одного азиатского субконтинента
31.08.25 21:51
0 1

многолетних залежей Ответы Mail.ru
Это самая омерзительная, бесполезная, никчемная петросянская помойка, что я видел за 25 лет жизни в интернете. Просто заповедник идиотов, которые мнят, что имеют чувство юмора, и срут напропалую, что ни спроси. Квинтэссенция безвкусного дебилизма т.н. "русской души".
01.09.25 02:38
1 1

Было же "недавно" вроде, что Гугловский ИИ, подчерпнув инфы с того-же Реддит, порекомендовал добавлять клей ПВА в сыр для пиццы, чтобы он был более тягучий.
Т.е. ума "сообразить", что так делают только, когда снимают рекламу еды, ему уже не хватило.
Там ещё было несколько таких примеров и от ChatGPT и т.д.

Поэтому, когда мне приводят аргумент "А вот мне ChatGPT сказал...", в моих глазах IQ сказавшего понижается на порядок.
31.08.25 15:44
4 5

Поэтому, когда мне приводят аргумент "А вот мне ChatGPT сказал...", в моих глазах IQ сказавшего понижается на порядок.
Большинство людей, к сожалению, по совершенно не понятной причине воспринимают текущие большие языковые модели (LLM) как некоторый сверхразум знающий абсолютно всё и умеющий логически эту информацию связывать без ошибок. Оба предположения явно не верны. При этом уже текущий ИИ явно умнее среднего человека. Но очевидно, что любой человек, даже очень умный, чего-то не знает и даже располагаю информацией, может ошибаться в выводах. Каждый из нас в жизни слышал огромное количество плохих и просто опасных советов от других людей. Но все читающие эти сроки еще живы.
31.08.25 16:11
1 4

Каждый из нас в жизни слышал огромное количество плохих и просто опасных советов от других людей. Но все читающие эти сроки еще живы.
Но "все, читающие эти строки" = / = "все, слышавшие эти советы"
31.08.25 16:17
1 3

При этом уже текущий ИИ явно умнее среднего человека.
Я за свою жизнь пообщался с достаточным количеством людей, чтобы знать, что "умнее среднего человека" - это не такое уже и достижение 😄
Think of how stupid the average person is, and realize that half of them are stupider than that.” —George Carlin.

Каждый из нас в жизни слышал огромное количество плохих и просто опасных советов от других людей. Но все читающие эти сроки еще живы.
Ну, наше поколение ещё да... более-менее имеет еще критическое мышление, хотя недавная история по дедка, который решил исключить поваренную соль из рациона и обратился к помощью к ИИ...
Более молодое поколение слушает ИИ, как Библию и верит на все 100%, даже не перепроверяя информацию.
Далеко не нужно ходить, у меня есть несколько знакомых (диапазон 30-40 лет), которые делают так-же. И сколько я, "компьютерщик", им не объяснял, что не нужно настолько им верить и всегда перепроверять... куда там. Каждый раз одно и то же.
31.08.25 16:21
1 3

более-менее имеет еще критическое мышление
Это то поколение, которое массово заряжало воду перед телевизором и несло деньги в МММ, или уже следующее?
31.08.25 17:00
0 7

Это то поколение, которое массово заряжало воду перед телевизором и несло деньги в МММ, или уже следующее?
Которое смотрело, как это делают их дедушки и бабушки и втихаря ржали.
Хотя, какая-то часть их ходит в церковь, так что да... мой аргумент пошатнулся 😄
31.08.25 17:06
0 2

Большинство людей, к сожалению, по совершенно не понятной причине воспринимают текущие большие языковые модели (LLM) как некоторый сверхразум
Странно тут только то, что вам непонятна причина.
Как людям из каждого утюга уже несколько лет постоянно рассказывают (причём в первую очередь главы и представители всех этих нейросетей), так большинство людей всё это и воспринимает.
Лень сейчас искать ролики, как руководство ЧатГПТ в интервью ездили по ушам ведущей и зрителям и рассказывали что вот уже очень скоро это будет реальный Интеллект.
31.08.25 17:10
0 3

Речь же идёт только о запросах, созданных сетью, так понимаю; то есть куда сеть склонна идти за получением информации в ответ на запрос пользователя.
31.08.25 15:28
0 0

Главное - это правильно задать вопрос ИИ. Об этом писали многие специалисты:
Думминг отстучал вопрос: «Гекс, ты знаешь что-то, чего я не знаю?»

Муравейник засуетился и почти сразу выплюнул ответ: «Практически все».

Думминг более тщательно сформулировал вопрос с должным количеством пунктов и условий. Вопрос был сложным и многословным, вопрос волшебника, который успел сегодня поесть только один раз, и никто другой не сумел бы даже понять, что Думминг имел в виду, но муравьи судорожно заикали, и Гекс выдал: «Мы имеем дело со смертью Матушки Ветровоск».
31.08.25 14:46
0 5

Главное - это правильно задать вопрос ИИ. Об этом писали многие специалисты
Об этом писали еще раньше 😉
"Он жил на отведенной ему планете, под лучами предназначенного ему солнца. Время тянулось медленно, как сказали бы одни, и летело, как подумали бы другие. Но для Ответчика оно шло своим чередом.

В нем были ответы. Он знал, какова природа вещей, и почему вещи такие, какие они есть, и какие они на самом деле, и что все это значит.

Ответчик мог ответить на любой вопрос, если вопрос правильно поставлен. И он хотел, нет, он жаждал отвечать!

Что же еще делать Ответчику?
"

Об этом писали еще раньше 😉
Спасибо тебе, человечище! надо же, оказывается я прям Шекли прочитал когда-то то ли в "Юном технике" то ли в "Технике Молодежи" -рассказ помнил и много раз в жизни пользовался последней фразой рассказа.. но даже не пробовал искать автора и сам рассказ...
вот прям растрогался 😄

я тоже об этом подумал, замечательный рассказ

Об этом писали еще раньше
то ли в "Юном технике" то ли в "Технике Молодежи"
"Он также печатался в советском журнале «Химия и жизнь» в 1985 году. " - точно! был еще и "Химия и жизнь"! в нем и прочитал 😄
прям вечер воспоминаний 😄

А в википедии кем статьи написаны?
31.08.25 14:36
0 3

Постановка вопроса неверная априори. Википедия редактируется в любой момент времени.
31.08.25 16:37
0 0

А в википедии кем статьи написаны?
"Люди, которые пишут статьи в Википедии... Откуда они все это знают без Википедии?!"
31.08.25 16:57
0 4

"Люди, которые пишут статьи в Википедии... Откуда они все это знают без Википедии?!"
Там ниже уже написали анекдот про деньги в тумбочке 😄
31.08.25 17:35
0 0

Было бы забавно обучить ИИ используя форум плоскоземельщиков... или креационистов...
31.08.25 14:31
0 3

Reddit в качестве источника информации - это печально.
В качестве основного источника информации - это катастрофа 😒
31.08.25 14:22
0 8

Если в Торе нет ответа, значит ваш вопрос не правильный
31.08.25 14:26
0 7

Слава Богу, что всё равно (пока) без людей, их ответов и мнения не обходится. 😄
31.08.25 14:13
1 0

Преимущество Reddit заключается в том, что он наполнен информацией, полученной от пользователей, то есть эти ответы написаны реальными людьми
А реальные-то люди где эту информацию (всё чаще и чаще) берут? 😄
Ситуация всё больше напоминает вот этот анекдот.
— Рабинович, откуда у вас столько денег?
— Из тумбочки.
— А кто их туда кладет?
— Моя жена.
— Ну она-то где их берет?
— Я ей даю.
— А вы откуда берете?
— Из тумбочки.
31.08.25 14:06
1 13

Приходят чукчи к шаману и говорят:
- Мы хотим узнать: зима будет теплая или холодная?
- А зачем вам?
- Если холодная, мы пойдем собирать хворост про запас, я если теплая -
не будем.
Шаман думает: скажу теплая, а вдруг будет холодная - они все замезнут и
меня замочат. А если скажу холодная - они собирут хворост, и даже если
зима будет теплой - ничего страшного. И говорит:
- Однако, чукчи, зима будет холодная!
Чукчи ушли, а шаман нервничает: вдруг все-таки зима теплая будет, зря
хворост собирали. Пойду, думает, к советскому метеорологу, спрошу. Он же
ученый - все знает.
Приходит на станцию, а там сидит заросший метеоролог, да еще с
сильнейшего бодуна. Шаман спрашивает:
- Скажи мне, однако, зима холодной будет?
Метеоролог в окно глянул:
- Ага!
- Ой, спасибо, а как вы это узнали, однако?
- А вон чукчи хворост собирают!!!
31.08.25 14:39
0 19

Преимущество Reddit заключается в том, что он наполнен информацией, полученной от пользователей, то есть эти ответы написаны реальными людьми
К сожалению, уже нет. Reddit (как и Википедию) сейчас заваливают комментариями, сгенерированными ИИ, и эффективного средства борьбы с этим пока не нашли.
31.08.25 14:05
0 3

Деструктивная, ошибочная, индукция.
Есть такое дело.
Хуже то, что я наблюдаю сейчас, а именно фактически ставшее обязательным использование ИИ при обучении и обязательное использование ИИ при работе. Говорят что пр приеме в АйТи команду Сбера требуют продемонстрировать умение писать код используя ИИ, и это плохо.
31.08.25 14:12
0 3

В последнее время вижу все больше мнений специалистов, что развитие LLM практически вышло на плато - и никакого экспоненциального роста (технологической "сингулярности") от них ожидать пока, увы, не приходится. Пожалуй, я разделяю это мнение. Недавний, скорее разочаровывающий релиз GPT-5 его подкрепляет. Кому нужны все эти самостоятельные (типа) "агенты" - если они так и не дошли до уровня, при котором мы сможем доверять их решениям? Мне даже лень пробовать тестить, хотя я в целом энтузиаст технологий.

Короче, пока что оно постоянно лажает на мало-мальски сложных вопросах - и никто ни у кого работу еще и близко не отнимает (по-крайней мере, мою 😄 ). Весь вопрос в том - действительно ли мы подходим к очередной "зиме искусственного интеллекта"? Или где-то в лабах корпораций кто-то уже пилит принципиально новые архитектурные подходы, которые помогут обойти ограничения LLM в которые мы почти уперлись. Говорят, чем-то таким Илья Суцкевер вроде как-раз занят. Ну, поглядим.
31.08.25 14:03
0 5

они так и не дошли до уровня, при котором мы сможем доверять их решениям?
А люди уже дошли до уровня, когда мы можем доверять их решениям? 😄

Или тут как с вождением автомобиля - одно ДТП на миллион км от ИИ означает, что ИИ пока рано пускать за руль, но одно ДТП на 100 тыс км от человека - это нормально? 😄

А люди уже дошли до уровня, когда мы можем доверять их решениям?
А ты сам кому поручишь внести изменения в реальный коммерческий проект? Вот прямо сейчас, сидя на работе. Своему миддлу (а еще лучше синьору) из команды - или стартанешь модного AI-агента? Вот тебе и ответ. А доверишь (вот реально) свою кредитку AI-агенту, чтобы он реально распланировал и проплатил-забронировал путешествие, полностью без твоего вмешательства? Или сам будешь? Вот тебе еще один ответ. А доверишь LLMке сделать тебе операцию? Она точно не перепутает левую ногу с правой? Потом, конечно, извинится. Или все же проплатишь опытного хирурга-человека пока что?

Или тут как с вождением автомобиля - одно ДТП на миллион км от ИИ означает, что ИИ пока рано пускать за руль, но одно ДТП на 100 тыс км от человека - это нормально?
Мне все это можно не заливать - я, как уже написал выше, и так энтузиаст технологий. Но вот только см. выше.

А люди уже дошли до уровня, когда мы можем доверять их решениям?
А без демагогии и ржущих смайлов ответ простой - уровень доверия человеку-специалисту все еще значительно выше, чем уровень доверия LLMке. Если бы это было не так - корпорации мгновенно всех бы поувольняли. Вопрос изменится ли это, и когда - остается открытым. О чем я, собственно, и написал изначально.

Своему миддлу (а еще лучше синьору) из команды - или стартанешь модного AI-агента?
Вот прямо сейчас (ну, не сейчас, в прошлую пятницу), сидя на работе, я стартанул модного AI-агента, он мне за полчаса и три промта набросал сервис с использованием сложнозамороченной либы, которая мне понадобилась первый и, скорее всего, последний раз в жизни. Сэкономив мне минимум пару дней работы (из них день на чтение доков). Я бы эти полчаса потратил только на объяснение задачи мидлу, и все равно пришлось бы за ним код ревьюить.

AI - это, блин, не робот-программист в коробочке. Это инструмент. И с точки зрения эффективности работы уметь им пользоваться - гораздо лучше, чем не уметь им пользоваться.

AI - это, блин, не робот-программист в коробочке
Это инструмент
Вот именно про это я, собственно, и написал. О том, что этот инструмент, похоже, достиг плато в уровне своего развития. Сингулярности не будет, по-крайней мере пока что. Инструмент не станет вот уже через год-два забивать гвозди самостоятельно вместо нас, не станет программистом в коробочке по подписке на сервис - как вещают некоторые маркетологи/футурологи. Это то, что я написал. Я не писал, что LLM бесполезны - или что-то другое, додуманное. Ты же зачем-то бросился на защиту технологического прогресса.

(Если что, то я использую чатик каждый день - вот уже несколько лет. В том числе и по работе. Мне не нужно рассказывать, как им пользоваться. Более того, я даже понимаю как он устроен: что такое нейросети, LLM, трансформеры, токены и вот это вот все. Я просто, черт побери, написал об ограничениях текущей технологии. Я не луддит, от меня не требуется защищать технологический прогресс).

О том, что этот инструмент, похоже, достиг плато в уровне своего развития.
Это экстенсивная фаза развития забуксовала. Для интенсивной все только начинается. Развитие в сторону большей специализации. Разработка механизмов обратной связи. Сочетание ЛЛМ, отвечающих за "творческую" часть подхода, с детерминированными моделями, отвечающими за "логическую". (Кстати, последним способом недавно соорудили модель, которая рвет, как тузик грелку, задачи по геометрии уровня топовых международных олимпиад. Те, которые нельзя взять никаким брутфорсом, а требуется, как всегда считалось, развитая интуиция.)

Буквально на днях искал инфу по довольно специфической настройке одного проектора. Ни в гугле, ни в reddit, ни в специализированных сайтах ничего не написано, хотят обсуждений вопроса есть довольно много.
ЧатГПТ выдал всё ту информацию которую я прочитал до него, просто всё сразу и удобно скомпилировано, т.е всё тоже самое без ответа.

Потом на reddit прочитал, что в этом проекторе есть скрытое инженерное меню. Зашел в него, там всё на китайском. Сфоткал, ЧатГПТ всё перевёл и там оказалась та самая настройка, которую я искал.
Это всё к вопросу про ИИ и, как тут некоторые писали (фантазировали) с год назад, что вот скоро выпустят 5ю версию ЧатГПТ и это уже будет реальный ИИ который сможет думать. Хрен там, даже и близко нет.
31.08.25 13:56
1 8

Я таки вам скажу, мысль правда не моя, он, ИИ действительно нехрена думать не будет, не умеет, модель, её основа этого не подразумевает, и что делать никто пока не знает.
Кстати о новой версии - мне кажется что она "поглупела", что явно не так, но видимо прикрутили какие то фильтры, и выдача стала грустней.
31.08.25 14:05
0 4

Кстати о новой версии - мне кажется что она "поглупела", что явно не так, но видимо прикрутили какие то фильтры, и выдача стала грустней.
Мне кажется что это признак того что эта технология постепенно подходит к своему пределу. Конечно будут еще дальше улучшения, но такого стремительного роста как 2 года назад уже не будет.
31.08.25 14:08
0 0

Не нашел логической взаимосвязи между тем, что ЧатГПТ чего-то не знает (про инженерное меню), умеет переводить с китайского и не "реальный ИИ который сможет думать.". Никто никогда не заявлял, что ИИ знает абсолютно всё.
Мне тоже неизвестно про инженерное меню в большинстве устройств, но если Вы пришлете его фотку на английском, я без труда его для Вас переведу. Возможно я не могу думать 😄
31.08.25 14:58
0 3

Не нашел логической взаимосвязи между тем, что ЧатГПТ чего-то не знает (про инженерное меню), умеет переводить с китайского и не "реальный ИИ который сможет думать.". Никто никогда не заявлял, что ИИ знает абсолютно всё.
Мне тоже неизвестно про инженерное меню в большинстве устройств, но если Вы пришлете его фотку на английском, я без труда его для Вас переведу. Возможно я не могу думать 😄
Ну так вы же не ЧатГПТ 5й серии, который обучен на 100500 миллиардах тонн знаний из Интернета и про который из каждого утюна уже несколько лет рассказывают что вот вот и он станет умнее человека.

А взаимосвязь такая, что всю эту информацию что у этого проектора существует инженерное меню, как в него зайти и какие пункты на китайском в нем есть- всё это я нашёл в интернете. И потом (когда я ему показал это меню) ЧатГПТ мне по всем пунктам меню мне всё перевёл и рассказал какой там пункт за что отвечает.
Вот только он не сделал главного- он не смог соотнести мой изначальный вопрос с тем, что оказывается ответ на него есть в этом меню. И в интернете тоже я ничего такого не нашёл, то есть есть только информация о существовании меню и что люди искали ответ на мой вопрос. Но ответ никто не написал что нужно именно в этом меню включить конкретный пункт.

То есть ЧатГПТ не сделал простой мыслительный шаг- он не соотнес мой вопрос- существование меню- существование в нем нужного пункта. Не потому что это невозможно, а просто в интернете этого никто не написал.
31.08.25 15:56
1 1

Ни в гугле, ни в reddit, ни в специализированных сайтах ничего не написано,
Это оттого, что искать нужно было на китайском языке.

Но ответ никто не написал что нужно именно в этом меню включить конкретный пункт.
Никто, включая тебя?
Или ты всё-таки раскрыл миру этот секрет?
31.08.25 16:03
0 1

Это оттого, что искать нужно было на китайском языке.
Может и из-за этого. И это опять же говорит о том какой это "интеллект". Чуть в сторону где надо сделать мыслительное действие которого еще не было- и весь интеллект испаряется.

Никто, включая тебя?
Или ты всё-таки раскрыл миру этот секрет?
Нет, я пока не написал. Там была какая-то уже года как 3 закрытая ветка на тематическом сайте, где было всё это написано про существование инженерного меню.
31.08.25 17:14
0 1

Мне кажется что это признак того что эта технология постепенно подходит к своему пределу.
Сложно настолько ошибаться ) Не то что не к пределу, мы в самом начале...
Сами же говорите, думать не умеет. Так будет уметь.
31.08.25 17:53
3 0

Сложно настолько ошибаться ) Не то что не к пределу, мы в самом начале...
Сами же говорите, думать не умеет. Так будет уметь.
Ага, будет будет, может быть когда нибудь.
А это кажется вы и говорили, что вот подождите, выпустят 5ю версию (тогда еще 3я была), вот тогда и будет уже реальный Интеллект. Не дословно, но смысл был такой.
Теперь, как я вижу, надо еще немного подождать...

Если хотите поспорить- то вон выше есть видео, где мужик хорошо всё рассказывает, поспорьте с ним.
31.08.25 19:35
0 2

А это кажется вы и говорили, что вот подождите, выпустят 5ю версию (тогда еще 3я была), вот тогда и будет уже реальный Интеллект. Не дословно, но смысл был такой.
Теперь, как я вижу, надо еще немного подождать...
Глубоко вопрос не изучал, но кажется у 5 версии был основной приоритет не на улучшение, а в уменьшении стоимости запроса. Т. е. как минимум не хуже предыдущей версии, возможно чуть-чуть лучше чем было, но сильно дешевле.
31.08.25 20:18
1 1

Глубоко вопрос не изучал, но кажется у 5 версии был основной приоритет не на улучшение, а в уменьшении стоимости запроса.
Вполне может быть. Также может быть и в 6й версии, и в 7й- небольшие улучшения и оптимизация. Данных для обучения всё меньше, стоимость обучения-улучшения всё выше.
31.08.25 20:51
0 0

Мыслительный шаг? До этого очень далеко.

Я как-то спросил у чятика сколько было титулов Большого Шлема у Надаля с 2011 года, он сказал что где-то примерно 13.

Я говорю - как это примерно? Можно ж точно посчитать. Он, да - вот список, даёт список из 13 побед, и говорит что их 11, и это сто пудов точный ответ)
31.08.25 22:36
0 3

Если бы нейросети учились там грамотности, мы бы чаще смеялись.
31.08.25 13:54
0 1

Pеддит: 40.1%
Невзоров: 59.9%.
31.08.25 13:52
0 0

Это статистика ссылок в твоих статьях?
31.08.25 13:57
2 1

тебя задела эта статистика?
31.08.25 14:17
0 2

тебя задела эта статистика?
Совершенно не задела. Просто сегодня у Невзорова бенефис в этом блоге. Причем в связи с темами, которые он никак не затрагивал. Начинаю подозревать, что без моих цитат из Н блог чувствует себя как Уотсон без трубки Холмса.
31.08.25 14:40
0 5

то без моих цитат из Н блог чувствует себя как Уотсон без трубки Холмса.
Плюсик за это. Это фича блога, так. Как Рекорд с запятыми.
31.08.25 14:45
0 1

Ну, хоть не ТикТок.
31.08.25 13:48
0 4

Даже мысли не было про Reddit. Теперь понятно откуда ноги растут у некоторых ответов.
31.08.25 13:24
0 8

А что не так с этим сайтом?
31.08.25 14:09
0 2

А что не так с этим сайтом?
Зависит от сабреддита. Где-то всё ок (там, где сугубо "технические", темы, ограниченные конкретным предметом обсуждения.) Но там, где более вольные темы - такая левотня, что Мао с Че Геварой отдыхают. Плюс мгновенное затыкание хлебальников несогласным.
31.08.25 14:37
0 5

где сугубо "технические", темы, ограниченные конкретным предметом обсуждения.
Да ладно, и там куча bullshit-а... Фильтровать и фильтровать.
31.08.25 15:39
1 3

Но там, где более вольные темы - такая левотня, что Мао с Че Геварой отдыхают.
Так там среднестатистический юзер - 25-30-летний западный айтишник. Тебе действительно интересно мнение этой аудитории на политические темы?

Здесь в комментах тоже как бы не весь диапазон взглядов представлен.
31.08.25 22:44
1 2

Я там пару раз пожелал всего нехорошего разным личностям, которые поддерживали "борцов за свободу" и их методы борьбы. Забанили навечно, открыть новый юзер там практически невозможно так как блокируют и по IP.
01.09.25 10:26
0 0

Reddit - лучший инструмент для того, чтобы убедиться, что на твой вопрос нет адекватного ответа!
31.08.25 13:24
2 17

Ну, почему же. Задумался я тут о том, могут ли гореть облако. И Reddit мне помог. Формально - могут. При выполнении определённых условий. Вот, вполне адекватный ответ.
31.08.25 14:14
2 1

Задумался я тут о том, могут ли гореть облако.
Ещё как могут. У одного мелкого провайдера сгорело облако: датацентр со всеми серверами, данными, большей частью бэкапов. Пожар был приличный.
Те данные, что бэкапили физически в другое облако - другой датацентр - сохранились, но там вдруг(!) оказалось отнюдь не всё, ибо экономили.
31.08.25 14:52
0 5

Reddit - лучший инструмент для того, чтобы убедиться, что на твой вопрос нет адекватного ответа!
Неправда. Решила несколько проблем с бытовой техникой благодаря реддиту. Остальные благодаря ютубу.
31.08.25 15:04
0 3

Решила несколько проблем с бытовой техникой благодаря реддиту.
«Ошибка выжившего» (-;
Да, мне тоже доводилось находить полезную информацию, но откровенного мусора очень много...
31.08.25 15:41
3 4

Да, давайте вместе друг с другом сделаем вид, что вы не поняли, будто это я говорю о том облаке, которое у нас над головами. 😄
31.08.25 16:13
1 1

Формально - могут. При выполнении определённых условий.
Почему только формально? Есть сценарий, до практической реализации которого не хватило совсем чуть-чуть. 😄 Если бы, например, фтор-аммиачный РД-301, уже отработанный на стенде, решили испытать в полете, и ракета бы развалилась (или потеряла управление и была подорвана системой самоуничтожения), были бы вам горящие облака в лучшем виде.
31.08.25 16:48
0 3

После exler.ru
31.08.25 22:26
0 0

Reddit - лучший инструмент для того, чтобы убедиться, что на твой вопрос нет адекватного ответа!
Бред какой-то. Кто наплюсовал этой ахинее?! Уж сколько раз я находил ответы именно на Реддите - и не сосчитать! Такое впечатление, что там можно найти ответ на ЛЮБОЙ вопрос, абсолютно любой.
01.09.25 02:32
0 3
Теги
Сортировать по алфавиту или записям
BLM 21
Calella 147
exler.ru 307
авто 470
видео 4298
вино 363