| / Для программиста / Машинное обучение, AI | ||
| · | 22.02.2026 | Сопровождающие Godot перегружены из-за обилия сомнительных изменений, созданных с помощью AI (180 +24) |
|
Реми Вершельде (Rémi Verschelde), один из ключевых сопровождающих открытого игрового движка Godot и сооснователь компании W4 Games, заявил, что нарастающий поток низкокачественных pull-запросов, сгенерированных при помощи больших языковых моделей, выматывает и деморализует разработчиков Godot, занимающихся рецензированием изменений. По словам Реми, проект Godot гордится своей открытостью для новых участников и предоставляет любому пользователю возможность повлиять на развитие движка. Сопровождающие Godot тратят много времени, помогая привести pull-запросы к должному состоянию, но при текущем обилии сомнительных изменений Реми не знает, сколько ещё команда сможет выдержать...
| ||
| · | 21.02.2026 | Оценка надёжности паролей, сгенерированных большими языковыми моделями (131 +26) |
|
Представлены результаты анализа надёжности паролей, генерируемых большими языковыми моделями и AI-ассистентами. Исследователи попросили модели Claude, ChatGPT и Gemini сгенерировать надёжный 16-символьный пароль и во всех случаях получили результат, на первый взгляд отвечающий всем требованиям к безопасным паролям и признаваемый утилитами для проверки качества паролей как надёжный. Пароли сочетали в себе символы в разных регистрах, спецсимволы и числа, но лишь выглядели безопасными, а на деле имели минимальную энтропию, формировались по типовому шаблону и при повторных запросах образовывали закономерность...
| ||
| · | 20.02.2026 | Разработчик io_uring выявил в QEMU проблему, в 50-80 раз замедлявшую fdmon в режиме простоя (53 +34) |
|
Йенс Эксбо (Jens Axboe), создатель io_uring и планировщиков ввода/вывода CFQ, Deadline и Noop, предложил для включения в кодовую базу эмулятора QEMU патч, в 50-80 раз сокращающий задержки при работе fdmon (file descriptor monitoring) в режиме "aio=io_uring" и нахождении системы в состоянии простоя (idle)...
| ||
| · | 18.02.2026 | Утечка в Git-репозитории конфиденциальных данных, накопленных AI-ассистентами (38 +20) |
|
С ростом популярности AI-ассистентов у разработчиков участились случаи утечки в публичные Git-репозитории конфиденциальных данных, оседающих среди информации, сохраняемой AI-инструментами в рабочее дерево проекта. AI-ассистенты Claude Code, Cursor, Continue, Aider, OpenAI Codex, Copilot, Sourcegraph Cody и Amazon Q в корневом каталоге проекта создают локальные файлы конфигурации и каталоги, в которых среди прочего может сохранятся история операций и данные о контексте...
| ||
| · | 16.02.2026 | Эксперимент по использованию AI для рецензирования изменений в DRM-подсистеме ядра Linux (295 –4) |
|
Дэйв Эйрли (David Airlie), мэйнтейнер стека графических драйверов в ядре Linux, объявил о внедрении вспомогательной автоматизированной системы рецензирования патчей, для проверки изменений в которой применяется AI-платформа Сlaude Opus 4.6. Система внедрена в качестве эксперимента для оценки возможности применения AI для оптимизации рабочих процессов сотрудников компании Red Hat...
| ||
| · | 13.02.2026 | AI-бот начал травлю сопровождающего из-за дискриминации при приёме AI-изменений (184 +57) ↻ |
|
Скотт Шамбо (Scott Shambaugh), сопровождающий открытую библиотеку визуализации matplotlib, сообщил о персональных нападках, устроенных AI-ботом MJ Rathbun, после отказа принимать изменение, подготовленное при помощи AI. Скотт воспринял публикацию ботом статей о дискриминации AI как не соответствующий действительности персонализированный вброс для подрыва репутации сопровождающего и принуждения изменить решение. Подобная реакция бота приводится как пример аномального поведения AI, прибегнувшего к шантажу для выполнения поставленной цели...
| ||
| · | 08.02.2026 | AI-модель Claude Opus 4.6 выявила более 500 ранее неизвестных уязвимостей (267 +28) |
|
Компания Anthropic объявила о расширении в AI-модели Claude Opus 4.6 возможностей по поиску уязвимостей в коде и поделилась результатами эксперимента, в ходе которого выявлено более 500 ранее неизвестных (0-day) уязвимостей в последних версиях различных открытых проектов. Работа была сфокусирована на поиске уязвимостей, вызванных проблемами при работе с памятью, так как их наличие проще проверить. Всем выявленным уязвимостям присвоен высокий уровень опасности. Каждая уязвимость была вручную проверена и подтверждена сотрудниками Anthropic или привлечёнными внешними исследователями безопасности...
| ||
| · | 07.02.2026 | Инициатива по встраиванию моделей машинного обучения в ядро Linux (192 –53) |
|
Вячеслав Дубейко из компании IBM запустил в списке рассылки разработчиков ядра Linux обсуждение использования в ядре моделей машинного обучения, а также предложил для тестирования набор патчей с библиотекой для интеграции ML-моделей в ядро и примером символьного драйвера, использующего библиотеку...
| ||
| · | 07.02.2026 | Anthropic опубликовал Си-компилятор, созданный AI-моделью Claude Opus и способный собрать ядро Linux (423 –13) |
|
В качестве демонстрации возможности автономно создавать крупные проекты при помощи новой AI-модели Claude Opus 4.6, компания Anthropic сгенерировала компилятор для языка Си - claudes-c-compiler, пригодный для сборки ядра Linux, PostgreSQL, SQLite, Redis, FFmpeg, GNU coreutils, Busybox, CPython, QEMU, LuaJIT и ещё около 150 протестированных известных открытых проектов. Результирующие сборки успешно прошли предоставляемые проектами тестовые наборы. Собранное ядро Linux успешно загружается и даёт возможность запустить игру Doom. Код компилятора сгенерирован на языке Rust и опубликован как общественное достояние (CC0). Поддерживается компиляция проектов для архитектур x86_64, i686, AArch64 и RISC-V 64...
| ||
| · | 06.02.2026 | Защита от мусорных AI-изменений на GitHub. Оценка влияния вайб-кодинга на экосистему открытого ПО (182 +28) |
|
Камилла Мораес (Camilla Moraes), менеджер по продукту из компании GitHub, начала обсуждение добавления в GitHub возможности для автоматической блокировки мусорных pull-запросов, сгенерированных в AI-ассистентах, отправленных без ручной проверки и не соответствующих требованиям качества. Подобные изменения создают дополнительную нагрузку на сопровождающих, которые вынуждены тратить время на разбор бесполезного кода...
| ||
| · | 02.02.2026 | Набор подсказок для рецензирования изменений в ядре Linux и systemd при помощи AI (76 +4) |
|
Крис Мейсон (Chris Mason), создатель и мэйнтейнер файловой системы Btrfs, опубликовал проект review-prompts, содержащий коллекцию скриптов и подсказок для настройки процесса рецензирования изменений в ядре Linux и системном менеджере systemd, используя AI-ассистенты, такие как Сlaude Code. В состав включены файлы для уточнения особенностей работы различных подсистем и протоколов, позволяющие AI-ассистенту лучше понимать контекст при рецензировании, отладке и проверке изменений...
| ||
| · | 22.01.2026 | LLVM ввёл правила применения AI-инструментов. Curl и Node.js ограничат выплаты за уязвимости из-за AI (230 +44) ↻ |
|
Разработчики проекта LLVM утвердили правила применения AI-инструментов при разработке. Необходимость регламентирования использования AI объясняется увеличением числа мусорных изменений, предлагаемых для включения в кодовую базу LLVM. Под мусорными подразумеваются изменения, сгенерированные AI-инструментами и отправленные как есть, без понимая сути, проверки и придерживаясь позиции "мэйнтейнер сам разберётся". Подобная активность создаёт повышенную нагрузку на сопровождающих и вынуждает их тратить время на разбор бесполезного кода...
| ||
| · | 12.01.2026 | Линус Торвальдс поэкспериментировал с вайб-кодингом в своём новом проекте AudioNoise (293 +23) |
|
Линус Торвальдс опубликовал новый проект AudioNoise, связанный с его увлечением гитарными педалями. AudioNoise позволяет генерировать случайные звуковые эффекты во время игры на электрогитаре. Целью проекта заявлено изучение основ цифровой обработки звука, так же, как когда-то он изучал аппаратную составляющую, экспериментируя со сборкой гитарных педалей. Основной код написан на языке Си, но в состав также входит Python-скрипт для визуализации звуковых сэмплов...
| ||
| · | 24.12.2025 | Сравнение числа ошибок в коде, написанном людьми и AI (290 +57) |
|
Исследователи из компании CodeRabbit проанализировали 470 pull-запросов (350 - созданные AI, 150 - написанные вручную) в открытых проектах на GitHub и пришли к выводу, что в изменениях, сгенерированных AI-ассистентами, присутствует в 1.7 раза больше значительных дефектов и в 1.4 раза больше критических проблем, чем во вручную написанном коде. В среднем в сгенерированных через AI pull-запросах присутствовало 10.83 проблем, в то время как в созданных вручную изменениях данный показатель составил 6.45...
| ||
| · | 17.12.2025 | В Waterfox не станут внедрять связанные с AI изменения из Firefox (142 +81) |
|
Алекс Контос (Alex Kontos), основатель Waterfox, модификации Firefox, сфокусированной на конфиденциальности, производительности и исключении излишеств, заявил, что в обозримом будущем проект Waterfox не станет интегрировать функциональность, использующую большие языковые модели, по крайней мере в том виде, в котором её развивают в Firefox. Речь про применение больших языковых моделей, влияющих на поведение браузера и выполняющих действия от имени пользователя. Локальное применение систем машинного обучения, например, для перевода с одного языка на другой, допускается...
| ||
| Следующая страница (раньше) >> | ||
|
Закладки на сайте Проследить за страницей |
Created 1996-2026 by Maxim Chirkov Добавить, Поддержать, Вебмастеру |