«Порадьте, що відповісти клієнтці». Як психотерапевти таємно користуються чатботами
MIT Technology Review описує кілька показових історій про те, як під час онлайн-сесій психотерапевти зверталися по підказки до ChatGPT, інколи настільки невміло, що клієнти помічали це просто на екрані. В одному випадку фахівець випадково розшарив вікно з діалогом у чатботі; в іншому клієнтка запідозрила «штучний» стиль електронного листа з надмірною емпатією й отримала зізнання, що відповідь була згенерована ШІ. Такі історії підігрівають недовіру: люди бояться за конфіденційність і сумніваються, що терапевт справді «присутній» у процесі.
Подібні епізоди вже з’являлися в медіа: навесні пацієнт під час телемедицини побачив, як терапевт «підбирає» відповіді з ChatGPT, що спричинило хвилю обурення про етику та приватність. Професійні спільноти попереджають: ШІ може здаватися дуже емпатичним, але він не замінює клінічної відповідальності й може підсилювати хибні переконання або ризиковані патерни, тож прозорість і межі його використання в терапії мають бути чіткими.
Висновок банальний і неприємний: якщо терапевт використовує ШІ як чернетку або довідник, клієнт має право про це знати, а персональні дані лишатися захищеними. Повна «автоматизація співчуття» поки що не працює, і там, де важливі довіра та відповідальність, людська присутність усе ще вирішальна.
Статья за пейволлом – https://www.technologyreview.com/2025/09/02/1122871/therapists-using-chatgpt-secretly/