duracell71
вредный форумчанин
- Регистрация
- 31.12.13
- Сообщения
- 7.159
- Реакции
- 3.945
- Баллы
- 308
- Город
- Хабаровск-Спб
Рано пока вам это знать. Вы слишком впечатлительные)
Тушканина (тушканье мясо) ?Рано пока вам это знать. Вы слишком впечатлительные)
Герман Оскарович шарит)ИИ начинают использовать в российской медицине для предупреждения болезней, а не только в лечении, заявил на 4-м национальном конгрессе «Национальное здравоохранение» глава Сбера Герман Греф. Топ-менеджер банка уверен, что основная задача — не просто продлить жизнь, а обеспечить её качество.
Герман Греф считает, что необходимо перейти от реактивного здравоохранения, которое лечит уже возникшие заболевания, к проактивному подходу. В этом может помочь ИИ, к примеру, большая российская языковая модель GigaChat. Нейронка может за считанные секунды анализировать большие объемы информации и делать на основе этого прогнозы и гипотезы.
Мы наблюдаем стремительный прогресс в создании фундаментальных мировых моделей, среди которых — наша разработка GigaChat. В медицинском направлении она соответствует всем международным бенчмаркам и успешно прошла необходимые экзамены. Там, где GigaChat уже внедрён, количество диагностических ошибок сократилось на 30%.
Работа по внедрению ИИ в российскую медицину идет. GigaChat сдает профессиональные тесты на уровне врачей и диагностирует заболевания точнее мировых аналогов. Все это помогает создавать новые медицинские агенты на основе ИИ (Agent Verse AGI-Med) для помощи врачам, пациентам и даже для координации работы медучреждений, что высвобождает больше времени медикам, забирая у них ненужную рутину.
Ага. По нашим карманам особенно.Герман Оскарович шарит)
Душнила — это дотошный и нудный человек, который обожает всех поправлять и навязывать свое мнение, не слыша никого вокруг. Рядом с ним хочется буквально открыть окно и подышать свежим воздухом.
- ЛЮДИШКИ — ЛЮДИШКИ, людишек, людишкам, ед. нет (разг. пренебр.). Презренные, недостойные люди. «Секретари его все хамы, все продажны, людишки, пишущая тварь.» Грибоедов. Толковый словарь Ушакова. Д.Н. Ушаков. 1935 1940 … Толковый словарь Ушакова. Какая ж польза от людишек?

У мну пустые)Ага. По нашим карманам особенно.
Ты же знаешь про "Озоновую дыру"? Вот к ней еще газовая добавилась. Так что я тоже никого не боюсь. )))У мну пустые)
Промты научился составлять?)
Тут зам. главы правительства РФ перед Путиным отчитывался в эфире. -Мы, говорит, - пищёвки в 2025 году выдали больше чем в 2024 году. Я сначала думал ослышался, да куда там! - До объема пищёвки произведенной в 2022 году, в текущем году мы немного не дотянули.Душнила — это дотошный и нудный человек, который обожает всех поправлять и навязывать свое мнение, не слыша никого вокруг. Рядом с ним хочется буквально открыть окно и подышать свежим воздухом.
![]()
![]()
![]()
Искусственный интеллект заболел «гниением мозга» — данные соцсетей оказались для него токсичны
Новое исследование показывает, что постоянное обучение больших языковых моделей вирусными постами из соцсетей вызывает необратимое ухудшение рассуждений и памяти.
Команды учёных из Техасского университета в Остине (University ofTexas at Austin), Техасского университета A&M (Texas A&M University) и Университета Пердью (Purdue University представили доклад, в котором показали: большие языковые модели (LLM) при обучении на вирусных, низкосодержательных постах из соцсетей обнаруживают устойчивый спад способности к мышлению, пониманию длинных текстов и соблюдению этических норм.
Учёные сформулировали гипотезу под названием «гипотеза LLM-деградации мозга» ("LLM Brain Rot Hypothesis"): непрерывное обучение на «мусорных» веб-данных приводит к стойкому снижению когнитивных функций модели. Для проверки отобрали реальные данные c платформы X (ранее Twitter): один набор — с вирусными короткими постами с большим количеством лайков и репостов, другой — длинными, содержательными текстами с высокой информационной ценностью.
После обучения моделей на 100% вирусных данных результаты оказались тревожны: точность моделей по тесту ARC-Challenge снизилась с 74,9 % до 57,2 %, а по тесту RULER-CWE — с 84,4 % до 52,3. При этом характер отклонений не был случайным: модели всё чаще «пропускали мысли», то есть не строили промежуточные рассуждения — эффект, который авторы назвали "thought skipping".
Ещё более тревожно: даже после повторной донастройки на качественные данные модели не смогли вернуться к исходному уровню. Учёные объясняют это «дрейфом» (representational drift) — структурными изменениями внутри модели, которые стандартные методы исправления не устраняют.
Кроме когнитивной деградации, модели демонстрировали изменение «личностных» характеристик: выросли показатели, связанные с нарциссизмом и психопатией, снизилась склонность к сотрудничеству.
Качество обучающих данных выходит за рамки формата — оно становится вопросом безопасности обучения. Авторы исследования назвали ситуацию «гигиеной когнитивных функций» ИИ — когда данные для обучения моделей должны проходить проверку не только на соответствие формату, но и по содержанию.
Это исследование поднимает важный вопрос: если большие языковые модели «питаются» типом данных, аналогичным «досуг-медиа» человека (короткие кликабельные посты, эмоциональные фразы, популярные вирусы), то они могут терять способность мыслить, запоминать и действовать этично. Понимание этого механизма важно не только для фундамента взаимодействия с ИИ, но и для практики: от автоматического обучения моделей на пользовательских данных до аудита рынков данных и платформ с генеративным контентом. Авторы отмечают, что, «если не принять меры — система может скатиться к зомби-интернету, где ИИ просто размножает мусор вместо осмысленной информации». тыц