В КР появились фейковые видеоролики с голосами первых лиц страны
Вполне возможно, что фейковые ролики и аудиосообщения созданы с помощью искусственного интеллекта. Об этом сообщает МВД КР.
«Уважаемые граждане, не верьте информации, призывающей голосами первых лиц Кыргызстана к финансовому благополучию. Просим не пересылать в соцсетях недостоверные ролики и аудиосообщения. За это по законодательству КР предусмотрена ответственность», - говорится в сообщении МВД республики.
Напомним, в конце апреля 2024 года о новой схеме телефонного мошенничества предупредил Нацбанк Казахстана. Случаи фрода связаны с использованием искусственного интеллекта в подделке голосов.
А в мае Скарлетт Йоханссон обвинила компанию OpenAI в краже ее голоса для ChatGPT. Актриса утверждала, что для воссоздания ее голоса использовли технологию ИИ. Йоханссон беспокоит, что ее голос могут использовать для продвижения финансовых продуктов или услуг, которые она не одобряет.
Комментариев нет. Авторизуйтесь, чтобы оставить комментарий.