Эффект "свой-чужой" в IT-найме: почему писать резюме руками статистически невыгодно 🤖
Эффект "свой-чужой" в IT-найме: почему писать резюме руками статистически невыгодно 🤖
Свежее исследование математически доказало системный баг в современных пайплайнах найма.
На рынке сложилась ситуация, когда кандидаты генерируют резюме нейросетками, а компании используют те же LLM для первичного скрининга. Исследователи измерили, что происходит, когда эти два процесса сталкиваются.
Они взяли 2245 реальных человеческих резюме, сгенерировали на их основе копии через разные LLM (хард-скиллы и опыт оставались 1:1, менялись только формулировки и подача) и скормили их LLM-оценщикам.
И вот что вышло:
1️⃣ Self-preference bias (Предпочтение себя). Модели обладают встроенным механизмом самораспознавания и систематически выбирают текст, написанный ими же. Уровень предвзятости против текстов, написанных живым человеком, составляет от 67% до 82% для GPT-4o, DeepSeek-V3 и LLaMA-3.3-70B.
2️⃣ Конверсия в шорт-лист. Кандидат, чье резюме отполировано той же LLM, которую использует компания для скрининга, имеет на 23–60% больше шансов получить приглашение на интервью. При абсолютно идентичном бэкграунде.
3️⃣ Слепота к качеству. В слепых тестах живые разметчики часто признавали оригинальные человеческие резюме более понятными и логичными. Но LLM-скринеры всё равно выбирали сгенерированные версии, просто потому что узнавали собственные лингвистические паттерны.
Отдельная статистика есть по битвам между самими моделями, если кандидат и компания используют разные инструменты:
▫️ DeepSeek-V3 обладает самым высоким уровнем "нарциссизма": он выбирает свои тексты против текстов LLaMA-3.3-70B на 69% чаще, а против GPT-4o — на 28%.
▫️ GPT-4o, напротив, в парных сравнениях внезапно отдавал предпочтение резюме, написанным DeepSeek, дисконтируя собственные генерации.
В общем, отправляя полностью "крафтовое", написанное руками резюме, вы технически отдаете до 60% преимущества в скрининге тем, кто прогнал текст через промпт. Навык попасть стилистикой резюме в LLM-пайплайн конкретной корпорации теперь влияет на конверсию до собеседования сильнее, чем реальный коммерческий опыт.
Как же все сломано ☹️ Как Карпаты отстал от жизни (и почему вы тоже) 🫠
Как Карпаты отстал от жизни (и почему вы тоже) 🫠
Недавно Андрей Карпаты выступал на Sequoia Ascent 2026, и признался, что никогда не чувствовал себя настолько отставшим, как программист.
Большинство до сих пор воспринимает LLM просто как продвинутый автокомплит. Ускоритель написания старого доброго Software 1.0. Но суть текущего сдвига не в том, чтобы писать классический код быстрее. Суть в том, что огромные пласты кода больше вообще не должны существовать.
Вот три тезиса из его выступления и последующего поста:
1️⃣ Код ради кода мертв
Эффективность — это не "написать приложение быстрее". Это вообще его не писать. Моделька выступает как интерпретатор естественного языка: сама оценивает ваше окружение, выполняет команды и дебажит ошибки.
А то, что было фундаментально невозможно решить классическими алгоритмами (вычисления поверх неструктурированных данных из статей/PDF/логов), теперь решается архитектурно в пару кликов.
2️⃣ Шизофрения нейронок
Модель может безупречно отрефакторить легаси на 100 000 строк, а в следующем промпте на полном серьезе посоветовать вам пешком сходить на автомойку, чтобы помыть машину.
Почему? Экономика.
Лаборатории заливают миллионы в RLHF там, где есть четкая верифицируемость результата (математика, код) и понятный рынок. Там нейронка едет по рельсам. Шаг в сторону — и модель с мачете пробирается по джунглям, галлюцинируя на каждом шагу. Не понимаете эту границу и где находитесь — LLM убьет ваш прод.
3️⃣ Agent-native архитектура
Продукты окончательно распадаются на сенсоры, актуаторы и логику (LLM). Мы идем к тому, что нейросети будут рулить основным флоу вычислений, а классический CPU станет просто сопроцессором для детерминированных задач.
В общем, "Agentic engineering" — это уже хард-скилл. Если вы не умеете делать информацию максимально машиночитаемой для LLM и оркестрировать агентов — ваши навыки устаревают прямо сейчас. В прошлом году моя статья про генерацию синтетических данных залетела в шорт-лист премии Технотекст 7
В прошлом году моя статья про генерацию синтетических данных залетела в шорт-лист премии Технотекст 7. Традиции нарушать нельзя.
Мой новый лонгрид на Хабре недавно прошел отбор на Технотекст 8. Там я разобрал архитектурные паттерны, которые заставляют LLM работать более качественно и предсказуемо с примерами кода на Python и LangChain.
Что внутри:
🔵 XML-изоляция: как структурно отделить системные инструкции от пользовательского ввода и базово защититься от промпт-инъекций.
🔵 Negative Constraints: как заставить LLM слушаться через систему штрафов [PENALTY].
🔵 Format Forcing: предзаполнение ответа. Как заставить модель физически продолжать JSON-строку, отрезая ей возможность написать «Конечно, вот ваш ответ».
🔵 Generated Knowledge & Self-Consistency: как лечить галлюцинации двухэтапной генерацией и мажоритарным голосованием.
🔵 Tree of Thoughts: направленный поиск стратегий для задач, где цена ошибки — слитый бюджет.
🔵 Meta-prompting: как делегировать написание промптов самой модели, чтобы она генерировала их по вашему жесткому фреймворку.
Спойлер: любимый многими прием «ты — сеньор с 20-летним стажем» в дискриминативных задачах часто ухушгает качество. В статье объясняю, почему так происходит, с пруфами из исследований.
👉🏻 Читать: Паттерны промпт-инжиниринга: как проектировать LLM-системы в production
На победу, конечно, не рассчитываю, но посмотрим, дойдет ли до шорт-листа в этот раз. Вы там лайкайте 🤗
Материал основывался на одном из прошедших эфиров Точки Сборки. Вот такой там уровень, приглашаю: t.me/TScompiler_bot ☕️ Запускать локальные LLM на своём железе уже давно не удел избранных с кластерами из H100

Запускать локальные LLM на своём железе уже давно не удел избранных с кластерами из H100. Или все же удел? 😁
🗓 Уже сегодня в 18:00 по мск пройдет прямой эфир в «Точке Сборки». Будем разбирать установку и использование локальных моделей.
О чем пойдет речь:
▪️ Как выбрать подходящую модель под ваше железо, чтобы она не сожрала всю память системы и работала с адекватным TPS (tokens per second).
▪️ Поднятие модели в режиме чата для повседневных задач.
▪️ Подключение локальной LLM к агентной IDE (в качестве примера возьмем Kilo Code).
▪️ Маршрутизация запросов к локалке через LangChain.
▪️ Оно вообще надо?
Трансляция и запись будут доступны участникам «Точки Сборки». Оформление доступа происходит через бота: https://t.me/TScompiler_bot
Запускать локальные LLM на своём железе уже давно не удел избранных с кластерами из H100

Запускать локальные LLM на своём железе уже давно не удел избранных с кластерами из H100. Или все же удел? 😁
🗓 1 мая в 18:00 по мск пройдет прямой эфир в «Точке Сборки». Будем разбирать установку и использование локальных моделей.
О чем пойдет речь:
▪️ Как выбрать подходящую модель под ваше железо, чтобы она не сожрала всю память системы и работала с адекватным TPS (tokens per second).
▪️ Поднятие модели в режиме чата для повседневных задач.
▪️ Подключение локальной LLM к агентной IDE (в качестве примера возьмем Kilo Code).
▪️ Маршрутизация запросов к локалке через LangChain.
▪️ Оно вообще надо?
Трансляция и запись будут доступны участникам «Точки Сборки». Оформление доступа происходит через бота: https://t.me/TScompiler_bot
📚 Переводим целые книги за минуту — opensource и бесплатно

📚 Переводим целые книги за минуту — opensource и бесплатно.
TranslateBooksWithLLMs — инструмент, который переводит книги, субтитры и документы целиком. Без лимитов, без подписок, без облака если не нужно.
Работает с любыми LLM — ChatGPT, Gemini, Mistral, DeepSeek. Или полностью локально через Ollama — никаких данных наружу. Форматы: EPUB, SRT, DOCX, TXT. Сохраняет форматирование. После перевода ещё раз проходит по тексту для литературной шлифовки.
Редкий случай когда opensource реально удобнее платных аналогов.
MUSIN PRO | GitHub
#opensource #перевод #LLM #инструменты 🔴 DeepSeek V4 — китайцы снова всё сломали

🔴 DeepSeek V4 — китайцы снова всё сломали.
Две модели. Бесплатно. Open source.
V4-Pro — 1,6 трлн параметров, топ по коду и математике.
V4-Flash — 284 млрд (активны 13 млрд), быстрее и дешевле.
Против GPT-5.4, Claude Opus 4.6, Gemini 3.1:
— Codeforces: 3206 — выше GPT-5.4 (3168) и Gemini (3052)
— LiveCodeBench: 93.5 — лучший из всех
— HMMT 2026: 95.2 — топ по сложной математике
— IMOAnswerBench: 89.8 — выше всех конкурентов
Эффективность vs V3.2:
V4-Pro потребляет в 4 раза меньше FLOPs, V4-Flash — в 10 раз. 50 ГБ KV-кэша у V3.2 → 5 ГБ у V4-Flash. Больше запросов, меньше железа.
Интеграция с Claude Code и Codex из коробки.
MUSIN PRO | DeepSeek V4
#DeepSeek #AI #нейросети #OpenSource #LLM ⚡️ Ant Group выпустили Ling-2

⚡️ Ant Group выпустили Ling-2.6-flash — удар по больному месту LLM-индустрии.
Пока все соревнуются, чей ответ длиннее, китайцы пошли в обратную сторону.
104 млрд параметров, активных — всего 7,4 млрд. MoE-архитектура: в каждый момент работает малая часть сети, а считать приходится за копейки.
Модель натаскана не раздувать ответы. Никаких простыней на пустом месте.
Разработчики: «мы оптимизировали интеллект/токен, а не интеллект/слова». Для тех, кто платит за API — буквальная экономия на ровном месте.
Гибридная линейная архитектура — прирост по скорости на длинных контекстах. Обычные трансформеры захлёбываются квадратичной сложностью. Тут обошли.
Заточена под агентские сценарии: инструменты, планирование, задачи. Бенчмарки BFCL-V4, SWE-bench, TAU2 — реальные, не синтетика. Держится на уровне моделей, которые в разы жирнее.
Неделю — бесплатный доступ через OpenRouter и Novita. Без платёжки и вейтлиста.
MUSIN PRO | Ling-2.6-flash
#AI #LLM #AntGroup #нейросети #разработка ⚡️ Anthropic закрыла доступ к Opus 4

⚡️ Anthropic закрыла доступ к Opus 4.6. Но кто-то уже успел.
Qwen3.6-35B-A3B-Claude-4.6-Opus-Reasoning-Distilled — 9 000 скачиваний, висит на Hugging Face.
Суть: не просто файнтюн на ответах Opus, а дистилляция цепочек рассуждений. Модель учится думать — не имитировать.
Весит скромно, запускается локально, никаких API. Ollama, две команды — и готово.
Долго не провисит. ToS Anthropic нарушен. Но пока есть — есть.
MUSIN PRO | Hugging Face
#AI #Claude #opensource #LLM #нейросети 🔥 На Hugging Face лежит бесплатный клон Claude Opus 4

🔥 На Hugging Face лежит бесплатный клон Claude Opus 4.6 — пока Anthropic не снесла.
Взяли Qwen 3.6, дообучили на reasoning-трейсах Opus 4.6, выложили в GGUF. Уже 9 000 скачиваний.
Активных параметров всего 3B из 35B — запускается на обычной видюхе через Ollama или LM Studio. Всё локально.
Юридически мутно — дистилляция на закрытой модели нарушает ToS Anthropic. Качайте сейчас, пока висит.
MUSIN PRO | Hugging Face
#AI #Claude #opensource #LLM #нейросети #Qwen