OpenAI обмежує медичні поради в ChatGPT: що тепер заборонено

Технології

OpenAI вніс зміни до своїх Умов використання, щоб зробити ChatGPT та інші інструменти ШІ безпечнішими та відповідальнішими. Згідно з новими правилами, ChatGPT більше не надаватиме персоналізовані медичні чи юридичні консультації, навіть якщо запитуватимуть користувачі. Натомість система надасть лише загальну довідкову інформацію та направить вас до відповідних спеціалістів – лікарів, юристів чи консультантів.

OpenAI також заборонив використовувати свої моделі для аналізу медичних зображень, щоб уникнути помилкових діагнозів і зменшити ризики для здоров'я користувачів. Компанія прагне підтримувати баланс між розвитком технологій і захистом прав і безпеки людей, які користуються її продуктами.

Відповідно до аналізу Apptopia, зростання мобільного додатку ChatGPT, можливо, досягло піку, про що свідчать глобальні тенденції завантажень і активності користувачів. Молодим людям, зацікавленим у кар’єрі у сфері технологій, варто звернути увагу на засоби штучного інтелекту, зокрема на ті, які допомагають оптимізувати програмний код.

“Ми зробили ChatGPT достатньо обмежувальним, щоб переконатися, що ми обережні з проблемами психічного здоров'я. Тепер, коли нам вдалося пом'якшити проблеми з психічним здоров'ям і у нас є нові інструменти, ми можемо безпечно послабити обмеження в більшості випадків”, – сказав генеральний директор OpenAI Сем Альтман.

Оновлюючи Умови використання ChatGPT, OpenAI наголошує на безпеці та відповідальності використання штучного інтелекту. Зміни спрямовані на запобігання можливих помилкових діагнозів та надання користувачам точної та достовірної інформації. Розвиток технологій має йти паралельно із захистом прав людей.

Джерело

Оцініть статтю
Newskor
Додати коментар