Page 1 of 1

Не говоря уже о том, что они отдают предпочтение

Posted: Sun Dec 22, 2024 10:30 am
by sumonasumonakha
Еще в начале этого года юрист Amazon настоятельно рекомендовал сотрудникам не делиться какой-либо информацией или кодом с чат-ботами на основе искусственного интеллекта после того, как компания обнаружила, что ответы ChatGPT схожи с внутренними данными Amazon. Помимо крупных технологических компаний, такие банки, как Bank of America и Deutsche Bank, также внедряют внутренние ограничительные меры для предотвращения утечки финансовой информации. И список продолжает расти. Угадайте что! Даже Google присоединился. Даже ты гуглишь? По данным анонимных источников Reuters, на прошлой неделе Alphabet Inc.


(родительская компания Google) посоветовала своим сотрудникам не вводить конфиденциальную информацию в чат-боты ИИ . По иронии судьбы, это касается и их собственного ИИ Bard, который был запущен в США в марте прошлого года и находится в процессе развертывания еще в 180 странах на 40 языках. Решение Google принято после того, как исследователи номера телефонов германии обнаружили, что чат-боты могут воспроизводить данные, введенные с помощью миллионов подсказок, и предоставлять их рецензентам-людям. Alphabet предупредил своих инженеров избегать вставки кода в чат-ботов, поскольку ИИ может их воспроизвести, что может привести к утечке конфиденциальных данных их технологии.


своему конкуренту на базе ИИ, ChatGPT. Google подтверждает, что намерена открыто говорить об ограничениях своей технологии, и обновила уведомление о конфиденциальности, призывая пользователей «не включать конфиденциальную или деликатную информацию в свои разговоры с Bard». Более 100 тыс. аккаунтов ChatGPT на Dark Web Marketplace Еще одним фактором, который может привести к раскрытию конфиденциальных данных, является то, что чат-боты на основе искусственного интеллекта становятся все более популярными, и сотрудники по всему миру используют их для оптимизации своей повседневной работы.