«Дети с ВИЧ не могут показать свои лица». Этично ли в фандрайзинговых сборах заменять реальные фото просителей на сгенерированные ИИ?

В канале фандрайзингового агентства mercy.agency Digital Fundraising провели эксперимент: реальные фото подопечных в адресном сборе заменили на сгенерированные искусственным интеллектом. Они ухудшили сборы на 21%. Эксперты сектора – о том, этично ли так поступать

Иллюстрация Дмитрия Петрова с использованием нейросети Kandinsky 3.0

У сгенерированных картинок была подпись: «Фото созданы с помощью искусственного интеллекта. Нам важно сохранить комфорт и анонимность подопечных».

По опыту многих фондов, просители не обращаются за помощью до последнего, так как стесняются, что их узнают.

Пока сам не окажешься на месте такого просителя, трудно понять, каких душевных мук стоит человеку, и так обессиленному болезнью, участвовать в адресном сборе: про вас рассказывают историю, делают фотографии и публикуют всем на обозрение.

Защитить личные данные

«Я хотел с помощью своей команды выяснить, что будет, если из адресного сбора потихоньку убирать личность человека, но все еще оставлять эту историю адресной, потому что сбор на конкретного человека работает эффективнее, чем системный сбор, – говорит автор эксперимента, специалист по диджитал-фандрайзингу Евгений Зубов.

Он уверен, что менять реальное фото на сгенерированное ИИ изображение более этично и бережно по отношению к благополучателю, чем не менять. Это позволяет сохранить или даже создать анонимность там, где ее не было. По тексту, в отличие от реального фото, сложнее связать сбор с конкретным человеком.

С ним согласна Екатерина Каратова, куратор фондов в Tooba – это один из крупнейших агрегаторов благотворительных фондов в России, со 106 НКО, более 300 000 пользователей и сборами 70 млн рублей в месяц.

«Сгенерированные нейросетью изображения детей помогут найти выход из ряда сложных ситуаций, – говорит Екатерина Каратова. – Например, когда мы не можем разглашать диагноз или помогаем подопечным, которые боятся показать лицо».

У Tooba был опыт использования нейросети: «Мы сгенерировали картинки для создания комикса, в нем герои рассказывают, почему настоящие дети с ВИЧ не могут показать свои лица, а также с какими сложностями сталкиваются, –  говорит Екатерина Каратова. – В таком формате сбор удалось собрать быстрее, чем аналоги «без лица». Думаю, что это также связано с тем, что проект выделялся среди других». 

Евгения Корытина, журналист и автор телеграм-канала о благотворительности «Причини добро», напоминает, что в области личных данных уже сейчас существует практика изменения имен детей в медиа (когда рядом с именем дается примечание, что оно изменено): «Думаю, вполне допустимо делать то же самое с фото, указывая, что они обработаны и изменены при помощи ИИ-сервисов».

Просьба с ИИ-фото перестает быть адресной и правдивой

Иллюстрация с использованием нейросети Kandinsky 3.0
Иллюстрация Дмитрия Петрова с использованием нейросети Kandinsky 3.0

Если мы хотим защитить подопечного, то должны убрать его фамилию, имя, место жительства (регион). А дальше мы сгенерируем картинку – и что тогда останется? Просьба, по сути, перестает быть адресной.

Тогда давайте открывать сбор на всех больных детей в России, например, создавать фонд помощи детям с ДЦП и собирать средства на его работу, доверяя фонду и рассчитывая на целевое использование этих средств, рассуждает Анастасия Отрощенко, редактор «Милосердия.ru».

По ее опыту – Анастасия много лет ведет раздел фандрайзинговых материалов – это не работает: «Работает история, в которой жертвователь видит, кому он помогает, а когда его лишают возможности помочь конкретному человеку или семье, то на абстрактный фонд жертвовать он будет гораздо менее охотно. Поставим себя на место жертвователя: вы открываете сайт, видите историю ребенка с ДЦП, которому нужна помощь, тянетесь к «Сбербанк-онлайн» и переводите средства. А если вам рассказывают, как вообще детям с ДЦП живется тяжело, они страдают и им всем нужна реабилитация? Тут вы думаете: всем плохо, и детям с ДЦП, и старикам, и беднякам, и вас уже эта конкретная история не трогает. Поэтому я думаю, что прозрачность и рассказ о конкретном подопечном – более эффективны.

Фандрайзинговый текст должен быть правдивым. Когда мы имеем дело с подменой (а в сгенерированном фото присутствует подмена), это сразу вводит потенциального жертвователя, читателя фандрайзингового текста, в заблуждение. Это неправильно и недопустимо».

С коллегой согласен Дмитрий Петров, арт-директор портала «Милосердие.ru»: «Фото объекта помощи, сгенерированные ИИ, не являются конкретным изображением этого объекта, более того, они скомпилированы из других изображений, то есть это полная фата-моргана. Они мимикрируют под настоящую фотографию, на самом деле ей не являясь, поэтому лучше их не использовать, чтобы не вводить пользователей в заблуждение.

Неискушенный пользователь будет думать, что это реальное фото реальной девочки, даже если оно подписано: «Фото сгенерировано». Мало кто читает эти подписи, да и в любом случае тут присутствует лукавство: мы поясним, что фото ненастоящее, но оно будет выглядеть как реальное».

Узнаваемость героев сборов – гарантия, что это не мошенники

Кто даст гарантию, что сгенерированными фото не будут вовсю пользоваться мошенники? Сейчас сотрудники фондов хотя бы могут проверить, что ребенок, на которого ведут сбор, существует, его зовут так-то и живет он там-то. А когда это будет нечто, сгенерированное ИИ, и это войдет в привычку – ИИ будет генерировать только изображения или потом и саму историю?

«Если эта практика войдет в нашу реальность, мы никогда не сможем отличить мошеннические сборы от настоящих, – говорит Анастасия Отрощенко. – Кстати, и узнаваемость героев наших просьб – это тоже некая гарантия того, что люди действительно оказались в ситуации, когда им нужна помощь».

По ее мнению, стоит придумать механизм, чтобы информацию о людях, которые просили о помощи и получили ее, со временем удалять из сети.

Сгенерированные картинки никак не повлияют на количество мошенников, использующих в своих целях чужие сборы, уверен Евгений Зубов: «Ничто мошенников не останавливало до этого генерировать картинки, ничто не остановит и потом, и бороться с этим должны соответствующие государственные органы. Раньше мы пытались защищать сборы, делали водяные знаки на фото, но и это не сильно влияло на ситуацию. Думаю, весь сектор должен принять общий стандарт, начать делать сборы по определенной схеме, защищая их от мошенников. Но опять же всегда найдутся фонды менее опытные, которые не будут соблюдать эти правила, и мошенники смогут взять оттуда менее защищенную историю и начать ее использовать».

Изображения ИИ все еще слишком «прилизанные», это заметно

Иллюстрация с использованием нейросети Kandinsky 3.0
Иллюстрация Дмитрия Петрова с использованием нейросети Kandinsky 3.0

Таша Соколова, преподаватель медиаграмотности и журналист-фактчекер, много работает со сгенерированными ИИ-изображениями. По ее мнению, вряд ли сгенерированное изображение в фандрайзинговых постах будет проблемой из-за мошенников в будущем: «Рисков мошеннических сборов и так предостаточно. Чтобы создать мошеннический сбор, не нужно почти ничего: найти обратным поиском в гугле фоточку и опубликовать ее. К тому же многие, переводя деньги или даже делая репосты этих сборов, не утруждают себя проверкой информации.

Навык работы с ИИ, создания промтов (текстовых запросов для генерации), сама генерация изображений (с первого раза еще и не сгенерировалась, надо сидеть дальше и догенерировать) – это неоправданные трудозатраты со стороны мошенников. Сейчас есть более актуальные темы, чем благотворительность, куда талантливые промт-инженеры, желающие быстрых денег, могут вкладываться и создавать фейковые изображения».

Как отличить настоящее фото от сгенерированного? Точный технический инструментарий для этого пока не разработан, поэтому Таша советует пользоваться своей головой и собственными визуальными способностями к распознаванию: «К тому же изображения ИИ все еще слишком прилизанные, это заметно.

Технологии могут использоваться мошенниками, а могут послужить проверенным фондам, напоминает Екатерина Каратова, куратор фондов в Tooba. ИИ развивается очень быстро, и, возможно, жертвователям будут встречаться новые виды обмана.

Правила безопасности остаются теми же: донорам важно выбирать проверенные фонды и не переводить деньги на карту. НКО важно предупреждать доноров об использовании нейросети в создании фотографий, иначе это окажет негативный эффект на весь сектор. Люди будут считать себя обманутыми, когда узнают, что помогали не «тому самому» ребенку с картинки, а кому-то другому.

Нейросеть поможет сэкономить деньги и повысить сборы

Результат эксперимента своей команды Евгений Зубов считает удачным: он ожидал падения сборов примерно вполовину после замены реальных фото на сгенерированные, а сборы уменьшились только на 21%.

«Мы продолжим эксперимент и попробуем сделать иллюстрации более фандрайзинговыми, то есть менее гламурными, более «человечными» и соответствующими истории. Пока у нас такой задачи не было, – говорит фандрайзер. – Если целенаправленно генерировать картинку, возможно, мы добьемся такой же результативности, как если бы это была настоящая фотография.

Я хочу понять, как об этом говорить с потенциальными жертвователями, чтобы, с одной стороны, не снижать или даже повысить эффективность сборов, а с другой стороны, не создавать видимость того, чего на самом деле нет.

Из своей практики я знаю, что большинство адресных сборов поддерживаются из конкретных побуждений, и, как правило, там достаточно просто быть честным с пользователями. В нашем случае, подписав, что фото созданы ИИ».

Если есть подпись, что фото сгенерировано ИИ, никаких вопросов по этике оно не вызывает, говорит Таша Соколова. Так поступают многие новостные журналисты, используя, например, созданные Midjourney изображения. Таша видит в таких фото дополнительное фандрайзинговое поле, возможность увеличить объем пожертвований в будущем: «С помощью ИИ мы генерируем как фандрайзеры реальность, которую можно создать, пожертвовав деньги, например, на вертикализацию, реабилитацию. То есть люди смогут визуализировать, что именно и как изменится, было – стало.

Например, благодаря курсу реабилитации у ребенка начнет работать правая рука, и если сейчас мама кормит условную Машу с ложки, то представьте, как это может выглядеть, если она начнет есть сама – вот фото».

Если речь не о фото просителей, а об условных изображениях с неодушевленными объектами, вполне допустимо их использовать, соглашается Дмитрий Петров. «Это просто декор с эмоциональной составляющей, и здесь мы не пытались их выдать за реальную фотографию, – говорит он. – Тогда все равно, как их изготавливать: при помощи генератора ИИ или листа бумаги и фломастера».

Иллюстрации Дмитрия Петрова с использованием нейросети Kandinsky 3.0

Мы просим подписаться на небольшой, но регулярный платеж в пользу нашего сайта. Милосердие.ru работает благодаря добровольным пожертвованиям наших читателей. На командировки, съемки, зарплаты редакторов, журналистов и техническую поддержку сайта нужны средства.

Для улучшения работы сайта мы используем куки! Что это значит?