Не делитесь с ИИ слишком большим количеством личной информации

Не делитесь с ИИ слишком большим количеством личной информации
фото показано с : rup.ee

2024-11-15 01:29

Как сообщила в четверг пресс-служба банка Citadele, Искусственный интеллект (ИИ), например популярный ChatGPT, предлагает пользователям множество возможностей, позволяя быстро искать информацию, анализировать и систематизировать большие объемы данных.

Однако, хотя ИИ используют очень активно, в тени остается тема кибербезопасности.

«Многим ИИ помогает быстрее выполнять рабочие задачи или просто эффективнее искать информацию. В то же время ИИ является большим подспорьем для киберпреступников, которые могут использовать его для перевода фальшивых писем, создания сайтов, сбора информации о жертвах и кражи личных данных. Однако редко обсуждается тот факт, что люди сами бывают склонны передавать ИИ слишком много личных данных», - отметил руководитель отдела по борьбе с отмыванием денег банка Citadele Виктор Ткаченко. По мере развития технологий становится очень сложно контролировать, куда и к кому в итоге попадает наша информация.

Он пояснил, что многие ИИ-системы разработаны для обработки огромного объема данных, чтобы иметь возможность предлагать пользователю наилучшие ответы. Для того чтобы ИИ понял, о чем именно его спрашивают, он также может собирать и анализировать представленную пользователями информацию. «Даже если некоторые модели ИИ, такие как ChatGPT, работают на защищенных серверах OpenAI, пользователю не всегда понятно, где именно хранятся данные и как долго они там будут находиться. Возможно, данные хранятся в облаке, откуда со временем могут стать доступными злоумышленникам благодаря новым технологиям, программам или утечкам», - добавил Ткаченко.

На данный момент оценка рисков использования ИИ затруднена, поскольку это крайне быстро развивающаяся и меняющаяся сфера, однако в будущем, по мере развития технологий, может стать проще получать и анализировать данные для различных целей. Это означает, что информация, которой мы делимся сегодня, через несколько лет может оказаться ценным источником данных, который, попав в чужие руки, может быть использован, например, с целью кражи личности. Данные, которые мы сегодня передаем ИИ, могут быть слишком личными с точки зрения кибербезопасности и в какой-то момент стать опасными. «На самом деле при использовании ИИ действуют те же правила, что и при обычном поведении и общении в интернете», - сказал Ткаченко.

Виктор Ткаченко дает ряд  рекомендаций по обеспечению кибербезопасности при общении с ИИ : избегайте передачи личной информации, не указывайте личные коды, полные имена, адреса, номера телефонов, финансовые и другие конфиденциальные данные; задавайте вопросы в обобщенной форме, используйте более общие вопросы, не требующие для ответа точной информации о вашей личности - например, спрашивайте у ИИ о финансовых или туристических рекомендациях в общем, а не о собственных банковских данных или советах по управлению финансами; предпочитайте анонимность, убедитесь, что используемые ИИ-системы не связаны с другими личными аккаунтами, где могут собираться и храниться ваши личные данные, а дополнительную безопасность может обеспечить создание отдельного электронного адреса – исключительно для регистрации в ИИ-системах; ознакомьтесь со своими правами и политиками конкретной ИИ-платформы. Чтобы избежать неприятных сюрпризов в будущем важно знать свои права в том, что касается удаления и передачи данных.

"Используйте только официальные системы. Мошенники пользуются популярностью ИИ, создавая собственные чат-боты, чтобы получить личные данные людей. Обращайтесь за советом только к тем системам и чат-ботам, в надежности владельцев и разработчиков которых вы уверены",- советует эксперт. .

Подробнее читайте на ...

данные данных ткаченко информации анализировать однако информацию личные

Фото: rup.ee

Внимание! Утечка данных клиентов Apotheka затронула сотни тысяч человек

Как сообщают в четверг Центральная криминальная полиция,  Государственная прокуратура, Инспекция по защите данных и Департамент государственной инфосистемы, из базы данных предприятия были незаконно загружены данные владельцев клиентских карт Apotheka. rup.ee »

2024-04-04 11:13

Фото: rup.ee

Кибермошенничество может разорить компанию

С развитием технологии важность кибербезопасности растет с каждым годом. Переезд в домашний офис и быстрое внедрение новых решений во время пандемии еще больше усилили этот рост. Атаки для получения пользовательских данных или денег становятся все более обычным явлением, чему в последнее время очень способствует геополитическая ситуация. rup.ee »

2022-08-08 16:11

Фото: rup.ee

Данные об обороте и количестве сотрудников фирм с апреля будут обнародоваться (дополнено)

Напоминаем о том, что в соответствии с Законом об изменении Закона о налогообложении и Закона об электронной связи, налоговый управляющий с апреля раз в квартал будет публиковать на своей странице данные об обороте предприятий и численности их сотрудников. rup.ee »

2017-03-31 10:38

Фото: rup.ee

В электронной среде MTA можно составлять справку о налоговых данных

Налогово-таможенный департамент (далее - MTA) включил в число своих онлайн-услуг решение, которое позволяет частному лицу или фирме составлять справку о налоговых данных. Данную справку коммерческие банки смогут использовать для оценки кредитоспособности, а фирмы - для демонстрации партнерам своей надежности. rup.ee »

2017-02-06 10:12

Фото: rup.ee

Скоро заработает информационная система земельного налога

Информационная система земельного налога MAKIS, призванная сократить рабочую нагрузку подразделений местных самоуправлений при сборе необходимых для расчета земельного налога базовых данных и повысить качество данных по земельному налогу, будет запущена в работу. rup.ee »

2017-01-03 17:22

Фото: rup.ee

MTA упростит порядок получения кредитов в банке

Налогово-таможенный департамент (MTA) в сотрудничестве с крупными банками с начала следующего года начнет выдачу свидетельств о налоговых данных, которые позволят людям с меньшими сложностями ходатайствовать о кредитах. rup.ee »

2016-12-20 16:46