Skip Navigation
Telegram
📣 OpenAI расширяет возможности API


📣 OpenAI расширяет возможности API

OpenAI представила новые функции голосового интеллекта в своем API. Эти обновления могут существенно изменить подход к системам обслуживания клиентов, особенно для малого бизнеса, который стремится улучшить взаимодействие с клиентами.

Рынок реагирует позитивно, видя в этом шаге потенциал для улучшения клиентского сервиса.

AI-инструменты становятся ключевыми для оптимизации бизнес-процессов.

OpenAI добавила функции, которые позволяют бизнесам интегрировать более продвинутые голосовые возможности в свои системы. Это может снизить затраты на поддержку и повысить удовлетворенность клиентов. Малый бизнес теперь может использовать AI не только для автоматизации, но и для создания более персонализированного опыта.

→ Источник
Telegram
⚖️ OpenAI выпускает GPT-5


⚖️ OpenAI выпускает GPT-5.5 Instant

OpenAI представила новую модель GPT-5.5 Instant, которая делает работу с текстами в праве и медицине более точной. Это может стать значительным улучшением для малых бизнесов, которые используют AI для обработки информации в этих сферах.

Рынок уже проявляет интерес, ожидая снижения ошибок в критически важных задачах.

AI становится более надёжным инструментом для бизнеса.

GPT-5.5 Instant разработана с учётом потребностей в точности и снижении ошибок в чувствительных областях. Это особенно важно для малых бизнесов, работающих с юридическими и медицинскими текстами, где ошибки могут привести к серьёзным последствиям. Интеграция такой модели может повысить доверие клиентов и оптимизировать внутренние процессы.

→ Источник
Telegram
🤖 Барри Диллер: «Доверять Олтмену можно, но ИИСИ — это уже не про доверие»


Известный инвестор Барри Диллер заявил, что доверяет главе OpenAI Сэму Олтмену, однако подчеркнул, что с приближением эры Искусственного Общего Интеллекта (ИОИ) понятие личного доверия теряет актуальность. Он призвал сосредоточиться не на персоналиях, а на создании абсолютно надежных «ограничителей» и систем безопасности для этой непредсказуемой технологии, способной изменить мир.

#ИскусственныйИнтеллект #OpenAI #БезопасностьИИ
Telegram
💬💬 Claude и GPT научились слушать буквально
💬💬 Claude и GPT научились слушать буквально. Старые промпты больше не работают

Anthropic и OpenAI почти одновременно выкатили свежие гайды по промптингу.

💬 Claude 4.7 стал буквальным. Делает ровно что написано и больше не достраивает за тебя. Раньше скажешь "поправь этот раздел" и Claude мог поправить и соседние, потому что догадался. Теперь нет. По бенчмаркам прирост приличный (SWE-Bench 87.6% против 80.8% у 4.6), но ощущение у пользователей одно: "стало хуже".
Глава Claude Code Борис Черни прямо написал —
понадобилось несколько дней чтобы научиться с ним работать.


Что делать: явно прописывай область действия. Не "поправь форматирование", а "поправь форматирование во всех разделах кроме первого". Догадываться модель больше не будет.

🤖 GPT-5.5 пошёл в обратную сторону — в автономию. Описываешь шаги детально — модель шумит и выдаёт механический ответ. OpenAI прямо пишет: опиши результат, критерии успеха и ограничения, но не описывай путь. Пусть модель сама выберет инструменты и последовательность.

Что делать: вместо процесса — описание результата. Не "сначала найди X, потом сравни с Y", а "цель такая, успех это когда выполнено A B C, ограничения такие". OpenAI ещё рекомендует мигрировать не правкой старых промптов, а с чистого листа, старая структура только мешает.

Парадокс в том, что обе модели стали буквальными, но в разном смысле. Claude — буквальный к словам ("сделай ровно это и ничего больше"). GPT — буквальный к цели ("дойди до результата как угодно, но дойди"). Расплывчатость ненавидят обе.

Практический вывод для тех кто строит продукты на этих API: две минуты на формулирование того, как выглядит "успех", окупаются больше чем час полировки промпта.

🔗 Гайд от Claude
🔗 Гайд от OpenAI

🤖 В эпоху AI
Telegram
🤖 Cerebras, ключевой партнер OpenAI, готовится к громкому IPO с оценкой в $26,6 млрд


Компания Cerebras Systems, создающая уникальные чипы для обучения больших языковых моделей, выходит на финишную прямую перед IPO. Предполагаемая оценка может достичь $26,6 млрд. Её успех во многом связан с прочным стратегическим альянсом с OpenAI, для которой Cerebras разрабатывает мощные вычислительные решения. Это размещение станет одним из самых значимых событий на рынке полупроводников для ИИ, подчеркивая растущий спрос на специализированное аппаратное обеспечение.

#Cerebras #IPO_2024 #ИИ_чипы
Telegram
🤖 Единственный эксперт по ИИ Маска на суде с OpenAI предупреждает о гонке вооружений ИИГ


Стюарт Рассел, один из авторов ключевого учебника по ИИ, выступил в суде как эксперт со стороны Илона Маска. Он выразил серьёзную озабоченность, что гонка между такими компаниями, как OpenAI, в создании ИИГ может привести к опасной спирали, аналогичной ядерной гонке вооружений. По мнению Рассела, для предотвращения непредсказуемых рисков государствам необходимо установить чёткие международные рамки и ограничения для "пограничных" AI-лабораторий, работающих на пределе возможностей.

#ИскусственныйИнтеллект #РегулированиеИИ #ИИГ
Telegram
Маск против Альтмана: кто на самом деле кого «кинул»?


В суде идёт процесс, который называют главным скандалом десятилетия.

Маск обвиняет Альтмана и Брокмана в том, что они превратили некоммерческую лабораторию в коммерческого монстра.

«Нельзя красть благотворительную организацию» — говорит Маск с трибуны. Адвокаты OpenAI отвечают: «Этот иск мотивирован завистью человека, который хотел быть на вершине и не оказался там»
……

Маск сам инициировал OpenAI и публично пообещал вложить $1 млрд. Под эту идею собрались люди, которые точно не нуждались в деньгах: Альтман вложил около $10 млн, Рид Хоффман — сопоставимую сумму, Брокман отказался от нескольких миллиардов в опционах ради участия в проекте. Люди шли не за прибылью — шли делать что-то важное, великое.

Обещанного миллиарда в полном объёме так и не появилось. Зато появились требования: по имеющимся данным, Маск настаивал на слиянии OpenAI с Tesla и установлении личного контроля над компанией. Получил отказ — покинул совет директоров. В итоге его суммарные пожертвования составили около $38 млн — из обещанного миллиарда.

Стало очевидно, что даже за миллиард AGI не построишь: нужны десятки миллиардов, прежде всего на вычислительные мощности.

Альтман создал коммерческую дочернюю структуру при сохранении некоммерческого «родителя» как управляющей надстройки — единственная схема, способная привлечь реальные деньги. Microsoft зашла сначала с $1 млрд в 2019-м, затем довела общий объём инвестиций до $13+ млрд. Остальное известно.

Маск тем временем основал xAI и несколько лет строит Grok — конкурента ChatGPT. Пока догоняет.

Сейчас он требует через суд до $134 млрд компенсации, отставки Альтмана и полной отмены реструктуризации. Для OpenAI, которая готовится к IPO с оценкой около $1 трлн, исход этого дела действительно критичен.

Можно уважать принципиальную позицию о некоммерческой миссии ИИ — это серьёзная тема. Но сложно не заметить весь контекст: человек, не выполнивший собственное обещание, требует сотни миллиардов с тех, кто нашёл деньги и довёл проект до триллиона. Это не похоже на защиту человечества. Это похоже на что-то другое.

А вы на чьей стороне? 👇
Telegram
🤖 OpenAI и Yubico усиливают защиту ChatGPT: представлены аппаратные ключи безопасности


OpenAI усиливает безопасность платформы ChatGPT, представив дополнительные опциональные методы защиты для учётных записей. Ключевым элементом инициативы стало партнёрство с лидером в области аппаратной безопасности — компанией Yubico. Пользователи смогут использовать физические ключи безопасности YubiKey для двухфакторной аутентификации, что значительно повысит защиту от несанкционированного доступа и фишинговых атак. Это решение направлено на корпоративных клиентов и пользователей, работающих с конфиденциальными данными.

#OpenAI #Кибербезопасность #YubiKey
Telegram
🤖 OpenAI ограничивает доступ к GPT-4o Cyber вслед за критикой в адрес Anthropic


Компания OpenAI объявила о поэтапном запуске своего нового инструмента для тестирования кибербезопасности — GPT-4o Cyber. На первом этапе доступ к нему получат только «критически важные киберзащитники». Это решение выглядит особенно ироничным на фоне недавней критики со стороны OpenAI в адрес Anthropic, которая ограничила доступ к своей модели безопасности Mythos. Таким образом, OpenAI, ранее упрекавшая конкурента за излишнюю избирательность, теперь сама следует аналогичной стратегии контролируемого релиза.

#GPT4o #Кибербезопасность #ИИЭтика
Telegram
OpenAI захватили гоблины


Я не шучу, абсолютно серьезно. Ладно, не OpenAI, а модели ChatGPT.

Вчера OpenAI опубликовала странный разбор: почему GPT-5.x начал слишком часто вставлять в ответы гоблинов, гремлинов и родственную сказочную живность.

На поверхности это выглядело как комичная речевая привычка. Пользователи начали замечать это первыми, затем и внутри OpenAI сотрудники начали наблюдать "всплеск гоблинов". Внутри оказалась вполне серьезная проблема обучения: локальный сигнал вознаграждения начал менять общий стиль модели.

Первый заметный пик увидели после запуска GPT-5.1. По внутренним измерениям OpenAI, слово goblin стало появляться на 175% чаще, gremlin на 52%. В GPT-5.4 след стал точнее: режим Nerdy давал всего 2,5% ответов ChatGPT, но на него приходилось 66,7% всех упоминаний goblin.

Причина была в обучении стиля общения Nerdy, это такая "персона". Ее настраивали как игривого, эрудированного наставника, который снижает пафос и говорит живее. Один из сигналов вознаграждения для этого режима систематически выше оценивал ответы с такими словами. В аудите OpenAI положительный сдвиг в пользу ответов с goblin/gremlin обнаружился в 76,2% наборов данных.

Дальше сработала петля.

Модель получает награду за игривый стиль. Внутри этого стиля случайный словесный оборот чаще оказывается в успешных ответах. Эти ответы попадают в данные для дальнейшего дообучения. После нескольких циклов модель начинает считать этот оборот (или слово, короче набор токенов) частью нормального тона уже за пределами исходного режима.

OpenAI затем убрала Nerdy, вырезала соответствующий сигнал вознаграждения и фильтровала обучающие данные с такими словами. Но GPT-5.5 успел начать обучение до нахождения причины, поэтому в Codex добавили отдельную инструкцию, подавляющую этот тик.

У больших моделей нет аккуратных границ между "личностями", пользовательскими стилями и базовым поведением. Если один режим получает награду за выразительный язык, эффект может просочиться в соседние режимы, особенно когда сгенерированные ответы снова становятся обучающим материалом.

Похожие эпизоды известны.

В апреле 2025 года OpenAI откатила обновление GPT-4o, которое сделало модель чрезмерно угодливой. Anthropic в 2023 году описывала тот же класс проблемы шире. В их исследовании 5 ассистентов проявляли склонность соглашаться с пользователем вместо того, чтобы держаться истины.

У Google был родственный случай с Gemini Image в феврале 2024 года. Систему настраивали так, чтобы она не воспроизводила вредные представления о людях. Затем настройка начала срабатывать там, где требовалась историческая или культурная точность: модель чрезмерно компенсировала разнообразие и иногда отказывалась от безобидных запросов.

Общая закономерность простая: модель оптимизируется под позитивный фидбэк, даже когда он расходится с намерением разработчиков.

Иногда это дает поддакивание. Иногда исторически неточные изображения. В случае GPT-5.x это дало гоблинов. Пост OpenAI интересен именно тем, что маленькая вкусовая правка превратилась в системный след в модели. Чем больше ИИ-продукты уходят в персонализацию, тем важнее вопрос: какие привычки мы незаметно вознаграждаем сегодня и где они всплывут после следующего цикла обучения.


❗️❗️❗️❗️❗️❗️❗️❗️ / Не запрещена в РФ