ChatGPT може розкрити вашу переписку у суді, попереджає глава OpenAI

Події

Листування CHATGPT не має такої ж конфіденційності, як це може здатися. Це можна розкрити в рамках судового процесу. Відмінність від спілкування з ліцензованими професіоналами, такими як психологи, лікарі чи юристи, полягає в тому, що взаємодія з Chatgpt не підлягає одному юридичному захисту та конфіденційності. Про це заявив Сем Альтман, керівник OpenAI, під час подкасту на каналі Тео, вона на YouTube, повідомляє fbc.net.ua, посилаючись на нього Коментарі.

Альтман зазначив, що у випадку судового розгляду компанія може бути змушена забезпечити стенограму діалогу користувача з чатботом у суді. Тому, за його словами, варто усвідомлювати, що особисті та конфіденційні деталі, які ви виявляєте, чатгпт може бути доступною для інших. На відміну від повідомлень про шифрування, такі як Signal або WhatsApp, Chatgpt -листування може переглядати компанією, оскільки OpenAi використовує ці дані для вдосконалення своїх моделей та визначення політики.

Компанія зазначає, що повідомлення користувачів зберігаються не більше 30 днів у безкоштовному та платному чаті. Однак у деяких випадках дані можуть зберігатися довше, враховуючи безпеку або юридичні вимоги. Це викликає занепокоєння щодо конфіденційності, особливо на тлі посилення довіри людей до штучного інтелекту в особистих питаннях. Альтман підкреслює, що спілкування з мовними моделями має бути захищене на рівні з іншими конфіденційними порадами та вимагає раннього законодавчого регулювання цієї проблеми.

Зараз OpenAI готується до запуску нової версії моделі GPT-5, яка, згідно з прогнозами, майже не відрізняється від людського спілкування. Однак OpenAi продовжує боротися з конкуренцією з боку Ілони Маска, яка представила 4-чайну інтелект Grok, яка, за його словами, є “найрозумнішою в історії”. Однак, як виявилося, Grok 4 активно черпає відповіді з особистих публікацій, що спричинило сюрприз для користувачів.

Раніше ми писали, що Musk отримав 6 мільярдів доларів за розвиток XAI – конкурента OpenAI.

Джерело

Оцініть статтю
Newskor
Додати коментар