Компанія OpenAI представила оновлення своєї платформи для роботи з аудіо в реальному часі. Нові моделі, інтегровані в Realtime API, спрямовані на вирішення головних проблем голосових ШІ — стабільності роботи та точності розпізнавання.
Ключові зміни стосуються трьох нових моделей, які вже доступні розробникам:
- gpt-4o-mini-transcribe-2025-12-15: Ця модель зробила величезний крок уперед у точності транскрибації. Заявлено про зниження рівня галюцинацій на 89% у порівнянні з попереднім стандартом Whisper-1.
- gpt-4o-mini-tts-2025-12-15: Оновлений синтез мови (Text-to-Speech) став чистішим. Згідно з тестами на базі Common Voice, кількість помилок у вимові слів зменшилася на 35%.
- gpt-realtime-mini-2025-12-15: Модель стала “розумнішою” у взаємодії. Вона на 22% краще слідує складним інструкціям та на 13% ефективніше викликає функції (function calling).

Ці оновлення критично важливі для бізнесів, що впроваджують голосових асистентів, сервіси живого перекладу та стрімінгові платформи, де затримка та помилки є неприпустимими.
➡️ Спробуйте Realtime API.







