Главная «фишка» GPT-4o — нейросеть общается по видео, человеческим голосом и без запинок. Среди прочего, ИИ способен помочь незрячему человеку — рассказать ему всё, что видит через камеру телефона.
Американская компания OpenAI представила модель GPT-4o, которая умеет анализировать звук, изображения и текст в режиме реального времени. Разработчики утверждают, что нейронка умнее всех предыдущих моделей, следует из официального заявления.
Новая модель GPT-4o, также известная как GPT-4 Omni, может стать настоящим спасением для незрячих людей — например, рассказать всё, что видит через камеру смартфона и тем самым помочь сориентироваться на улице. Кроме того, нейросеть знает полсотни языков и умеет выполнять перевод в режиме реального времени.
GPT-4o научили отвечать на вопросы с сарказмом, используя эмоции. Нейросетка способна, среди прочего, доступно объяснить студентам сложные темы по математике или, например, написать код за считанные секунды.
Нейросеть также интегрировали прямо в приложение Zoom, благодаря этому сотрудники могут обращаться к ней за советом прямо во время видеоконференций. GPT-4o будет работать напрямую через ПК.
Новая версия ChatGPT с GPT-4o доступна как для платных, так и для бесплатных пользователей. Бесплатные пользователи теперь также имеют доступ к поиску информации в интернете, созданию графиков, анализу данных, работе с файлами и изображениями, а также возможности сохранять историю своих предыдущих взаимодействий с системой.