Алгоритмы, уменьшающие размеры файлов изображений, делают их более удобными для пересылки, и Google удалось превзойти по степени компрессии формат JPEG, используя технологии искусственного интеллекта.

Статья, рассказывающая об этой работе исследователей Google, опубликована на сервере Arxiv.org на прошлой неделе.

Компания делала произвольную выборку из 6 млн картинок размерами 1280×720 в Интернете. Образцы изображений разбивались на неперекрывающиеся блоки 32х32, среди которых были выбраны сто фрагментов с наихудшей степенью компрессии. Дальнейшие эксперименты по совершенствованию алгоритма производились с этими, самыми сложными для сжатия образцами

Для тренировки экспериментальных нейросетей исследователи использовали систему машинного обучения TensorFlow, которую Google открыла в прошлом году.

Обучение осуществлялось примерно за миллион шагов, после чего авторы сравнивали изображения по заданным техническим метрикам и определяли какая тренировочная модель даёт наилучшие результаты – максимальное сжатие.

В конечном итоге, их модели смогли превзойти стандарт JPEG по средней эффективности компрессии. При этом они специально оговаривают, что оценки по техническим критериям не полностью согласуются с человеческим восприятием, из-за чего не всегда можно выявить безусловно лучший алгоритм.

Теперь авторы поставили цель улучшить с помощью нейросетей методы сжатия больших изображений, основанные на видеокодеках. Это более сложная задача, поскольку подобные методы, например WebP на базе видеокодека VP8, для улучшения сжатия задействуют дополнительные приёмы, такие как повторное использование уже закодированных фрагментов.