Почему все еще нельзя применять нейронки чтобы искать преступников

Сегодня скинули пост на одном из каналов Mash:

Mash на Мойке
Mash на Мойке

В Питере и области ловят опасного преступника. Запомните его.

Мужчину на видео подозревают в нападении на 76-летнюю пенсионерку в парке Александрино (Кировский район). Бабушке нанесли множественные колюще-режущие, украли сумку. Она прожила еще сутки, но сегодня скончалась.

Увидите этого человека — немедленно звоните в полицию.

В конце ролика — детализированный портрет, полученный нами при помощи нейросетки. Обычно она не подводит.

В конце поста приписка:

В конце ролика — детализированный портрет, полученный нами при помощи нейросетки. Обычно она не подводит.

Речь про эту картинку

Я хочу предупредить всех кто балуется этим видом восстановления лиц (в их примере результат работы приложения Remini), что эти «восстановления лиц» нельзя, на данном этапе развития технологий, применять для каких-то выводов или преследования кого-то, потому что они просто генерирую фейковые данные.

Нейронная сеть в приложении Reminu (GAN-алгоритм) обучена на сотнях тысячах лиц людей, все что она умеет, это «примерно дорисовывать лица» чтобы было реалистично и похоже, но гарантировать то, что кто-то невинный не пострадает от такого подхода — нельзя.

Все чаще слышно в последнее время про AI-этику и часто это что-то преувеличенное (вроде GPT2 моделей), но тут, конкретный случай — лицо сгенерированное нейронной сетью не может быть поводом чтобы кого-то задерживать, преследовать, таких преступников нужно ловить классическими способами.

Вот пример:

1) Фото примерно испорченное до состояние того, что у них на видео;

2) Восстановленная версия;

3) Реальная картинка.

Fig 2. нейронный Дружко

В общем, аккуратнее с алгоритмами, товарищи, они все еще придумывают фейковые вещи.

Источник: tjournal.ru