Мошенники клонируют голоса казахстанцев с помощью ИИ
Полицейские предупреждают казахстанцев о рисках мошенничества с использованием искусственного интеллекта, передаёт BaigeNews.kz.
С развитием технологий искусственного интеллекта мошенники приобрели новые возможности для обмана граждан. Они могут подделывать голоса, создавать фальшивые видео, имитировать знакомых людей и даже взламывать личные аккаунты с помощью нейросетей. В ответ на эти угрозы полиция Жамбылской области усилила профилактическую работу, направленную на информирование жителей региона о новых рисках.
Полицейские проводят регулярные визиты в школы, университеты, организации и жилые кварталы, распространяя информационные листовки и проводя беседы с гражданами о том, как избежать мошенничества и не стать жертвой преступников.
"Если раньше преступники звонили от имени банков и полиции, то теперь они могут клонировать голос вашего близкого человека и просить срочно перевести деньги. Кроме того, злоумышленники создают поддельные видео с помощью ИИ, якобы с вашим участием, и шантажируют ими жертв. Эти технологии делают обман более правдоподобным, поэтому важно быть особенно бдительными", – отметил начальник управление по противодействию киберпреступности ДП Жамбылской области Валихан Агыбаев.
Полиция призывает не переводить деньги по аудио и видеосообщениям, даже если они поступили от знакомых. Всегда проверять срочные просьбы через другие каналы связи. Не открывать подозрительные ссылки и файлы, чтобы избежать фальшивых сайтов. Рекомендуется настроить двухфакторную аутентификацию для защиты ваших аккаунтов.
В комментариях запрещены ненормативная лексика и оскорбления, высказывания, нарушающие нормы законодательства РК, реклама, комментарии, набранные ЗАГЛАВНЫМИ буквами. Оставляя комментарий, вы соглашаетесь с тем, что можете быть привлечены к ответственности в соответствии с законодательством РК, а также даёте свое согласие на сбор и обработку ваших персональных данных.