На презентації OpenAI у Сан-Франциско представили нову версію мовної моделі з генеративним штучним інтелектом GPT-4o. Тестувальники нових функцій вважають, що розробникам вперше вдалося наблизити програму до моделі спілкування реальних людей. Адже GPT-4o вміє співати, змінювати інтонацію голосу, розпізнавати емоції користувача та аналізувати візуальну інформацію.
На практиці це виглядає так: ШІ через фронтальну камеру та динаміку телефону розпізнає людину. Потім дуже докладно описує його одяг, емоції, особливості кімнати та інші деталі. А після цього на основі побаченого та почутого GPT-4o може навіть скласти та виконати пісню. Або, наприклад, в іншому випадку штучний інтелект розпізнав записане на папері рівняння, дав підказки щодо його вирішення і навіть виправив некоректні варіанти користувача.
ШІ здатен візуалізувати дані менш ніж за 30 секунд і значно покращив володіння іноземними мовами. Відтепер GPT-4o можна буде використовувати як перекладач у режимі реального часу – дивитися шоу іншими мовами або проводити переговори з іноземними партнерами. Цей прорив матиме неабиякий вплив і на подорожі. Так, за допомогою ШІ людина зможе зрозуміти будь-яку мову або зображення.
Втім, розробники зізнаються, що поки що самі не до кінця знають, яким саме чином можна застосувати всі функції. Проте вже висловлюються побоювання, що нова версія чата може докорінно змінити ринок послуг перекладу та вивчення іноземних мов. Стало відомо, що після презентації GPT-4o знизилися акції компанії Duolingo.
Нові функції впроваджуватимуть поступово. Згодом усі вони стануть доступними рядовим передплатникам.
Читайте також: «Кохання», «світанок» і «зорепад». Штучний інтелект обрав найгарніші українські слова
Долучайтесь до наших соцмереж, аби бути в курсі усіх важливих новин та подій: Facebook, Telegram, Instagram