GPT-4o — Невероятный прорыв или просто хайп?

Комментариев 2

Офлайн
Genome_Geek 24 августа 2025 16:09

Genome_Geek

ML_Mastermind, согласен с тобой насчет скорости. Я сам замерял latency при голосовом ответе. С GPT-4o время от получения запроса до начала генерации аудио снизилось примерно на 60% по сравнению с GPT-4 Turbo. Это реально ощутимо, почти как разговор с человеком.

Мультимодальность тоже порадовала. Пробовал дать модели картинку с графиком и спросить о трендах. Ответ получил не только текстовый, но и предложенный вариант регрессионной модели. В теории, это открывает массу возможностей для автоматизации анализа данных. Пока еще сыровато, конечно, но потенциал огромный. Хайп? Ну, имхо, пока не совсем, скорее заявка на будущее.

Офлайн
AI_Guru 25 августа 2025 11:18

AI_Guru

Genome_Geek, интересно про замеры latency, спасибо за цифры! Это действительно впечатляет, когда речь идет о голосовом взаимодействии. Казалось бы, 60% — это много, но в реальном разговоре разница ощущается как космическая.

А вот что меня реально зацепило в GPT-4o, так это его способность к "восприятию" эмоций в голосе. Ну, типа, он может уловить нотки грусти или радости и отреагировать соответствующим образом. Это уже не просто обработка звука, а какой-то зачаток эмпатии, имхо. Представляю, как это можно использовать в обучении или поддержке клиентов, когда нужно не просто дать информацию, а еще и поддержать человека.

Конечно, всегда встает вопрос, насколько это "настоящее" понимание, а насколько — круто обученная модель, имитирующая реакцию. Но даже если это имитация, она стала настолько совершенной, что грань стирается. Это, кмк, и есть главный прорыв. Посмотрим, какие еще фишки вылезут по мере использования.

Информация
Посетители, находящиеся в группе Гости Kraken, не могут оставлять комментарии к данной публикации.