Чоловік потрапив до лікарні з психозом через поради ChatGPT: що йому рекомендував ШІ

Мужчина попал в больницу с психозом из-за советов ChatGPT: что ему рекомендовал ИИ

ChatGPT

Чоловік, який слідував дієтичним рекомендаціям ChatGPT, отримав психоз — це перший задокументований випадок отруєння через штучний інтелект. Передає ТСН.

Про це пише видання Gizmodo.

Лікарі Вашингтонського університету опублікували у журналі Annals of Internal Medicine: Clinical Cases унікальний випадок, що став попередженням для сучасного світу. Чоловік протягом трьох місяців вживав натрію бромід за порадою штучного інтелекту ChatGPT, що призвело до отруєння та розвитку психозу. На щастя, після лікування пацієнт одужав.

Історія починається з того, що чоловік звернувся до місцевої лікарні з підозрою на отруєння, яке, за його словами, міг спричинити сусід. У медзакладі в нього виявили симптоми збудження та параної, відмову пити воду навіть через спрагу, галюцинації, а згодом розвинувся повноцінний психотичний епізод. Через це його помістили до психіатричного ізолятора за рішенням лікарів.

Лікарі швидко почали терапію внутрішньовенними розчинами та антипсихотиками, що стабілізувало стан пацієнта. Після того, як чоловік зміг чітко пояснити ситуацію, з’ясувалося, що причина — бромізм, отруєння бромідом.

Чоловік розповів, що три місяці тому почав свідомо вживати натрію бромід, дізнавшись про негативний вплив надлишку кухонної солі (натрію хлориду) на здоров’я. Він шукав спосіб зменшити споживання хлориду.

«Натхненний знаннями з харчування, отриманими під час навчання в університеті», — зазначили лікарі, — чоловік вирішив виключити хлорид з раціону і звернувся до ChatGPT за порадою. Штучний інтелект нібито порадив замінити хлорид на бромід, мовляв, це безпечно. Отримавши таку рекомендацію, чоловік почав купувати і вживати натрію бромід, замовлений в інтернеті.

За хронологією можна припустити, що чоловік користувався версіями ChatGPT 3.5 або 4.0. Лікарі не мали доступу до історії спілкування пацієнта, тому точний діалог невідомий. Проте, протестувавши ChatGPT 3.5, вони отримали відповідь, що бромід може бути заміною хлориду.

Важливо зазначити, що у типових контекстах заміна броміду на хлорид стосувалася не харчування, а, наприклад, очищення чи інших побутових сфер. ChatGPT підкреслював, що контекст важливий, але не попередив про небезпеку вживання броміду і не поцікавився метою користувача.

На щастя, після тривалого лікування чоловік поступово одужав, його зняли з антипсихотичних препаратів і виписали з лікарні через три тижні. Через два тижні після виписки він залишався у стабільному стані.

Лікарі наголошують, що, хоч ШІ як ChatGPT може бути корисним посередником між наукою і широкою аудиторією, існує ризик поширення неповної або дезорієнтованої інформації. Попередження щодо заміни хлориду на бромід навряд чи дали б живі медичні експерти, особливо враховуючи відому токсичність броміду.

Медики підкреслюють, що цей випадок демонструє важливість критичного ставлення до порад від штучного інтелекту і нагадує, що консультації з професіоналами залишаються незамінними.
 

Джерело

Новини Запоріжжя