- RU
- EN
OpenAI представила новую модель искусственного интеллекта GPT-4o
OpenAI представила новую модель искусственного интеллекта GPT-4o, которая внедряет ряд инноваций. Это масштабное обновление позволяет взаимодействовать с ИИ голосом и дает возможность "видеть" мир вокруг с помощью камеры. Теперь искусственный интеллект может помогать в решении задач, работать как онлайн-переводчик, читать сказки на ночь и распознавать эмоции по выражению лица.
Технический директор компании, Мира Мурати, подчеркнула, что новая модель стала значительно быстрее предыдущей версии и обладает улучшенными возможностями работы с текстом, видео и аудио. OpenAI стремится к тому, чтобы в конечном итоге пользователи могли взаимодействовать с ChatGPT в видеочатах. Новая модель поддерживает 50 различных языков, включая русский. Мурати также заявила, что API OpenAI будет общедоступным, чтобы разработчики могли начать создавать приложения с использованием новой модели уже сегодня.
Новая модель способна анализировать эмоции, опираясь на выражение лица пользователя, и обрабатывать звук. Во время презентации разработчики демонстрировали возможность беседы с моделью с двух разных устройств. GPT-4o реагирует на речь пользователей за считанные миллисекунды, что сопоставимо с временем реакции человека во время разговора. Он также может изменять тон голоса при рассказе сказок и работать как переводчик только в аудиорежиме. Разработчики продемонстрировали, как модель помогает сотрудникам общаться на разных языках и решать математические уравнения, даже выступая в роли учителя в процессе.
Комментарии
Добавить комментарий