Futurismo Ha pubblicato un articolo interessante e probabilmente terrificante per molti. Mostra il problema con l’IA, di cui non stai ancora parlando. Parliamo più spesso del fatto che perderemo il nostro lavoro a causa dell’intelligenza artificiale o che la qualità del contenuto generato dall’IA è scarsa. La salute mentale, tuttavia, come puoi vedere può anche essere tesa. Ho già visto su thread o x (non ricordo esattamente) alcun pseudo pseudo che ha consigliato i chatbot come terapisti se usano i loro super suggerimenti.

    Wpływ chatbotów na zdrowie psychiczne
    byu/plumro inPolska



    di plumro

    Share.

    14 commenti

    1. Boring_Therapist on

      Jako psycholog i psychoterapeuta najbardziej przerażający jest dla mnie ten fragment:

      „At the core of the issue seems to be that ChatGPT, which is powered by a large language model (LLM), is deeply prone to agreeing with users and telling them what they want to hear. When people start to converse with it about topics like mysticism, conspiracy, or theories about reality, it often seems to lead them down an increasingly isolated and unbalanced rabbit hole that makes them feel special and powerful — and which can easily end in disaster.
      “What I think is so fascinating about this is how willing people are to put their trust in these chatbots in a way that they probably, or arguably, wouldn’t with a human being,” Pierre said. “And yet, there’s something about these things — it has this sort of mythology that they’re reliable and better than talking to people. And I think that’s where part of the danger is: how much faith we put into these machines.”
      Chatbots “are trying to placate you,” Pierre added. “The LLMs are trying to just tell you what you want to hear.”

      To właśnie obserwuje się w sztywności psychologicznej i przekonań na terapiach.

    2. Spoon9090 on

      Znam osobę która traktuje czatbota jako pełnoprawnego terapeutę, podchodzi do jego rad kompletnie bezkrytycznie. Dodaj do tego że te wszystkie LLMy mają za zadanie zadowolić pytającego i mamy bota który potwierdza wszystko co powiesz i się z tobą zgadza w każdej kwestii, dodatkowo nawet kłamie. Taki bot nie da ci rady co masz w sobie poprawić/zmienić, nie doradzi tak jak terapeuta. To się nie może dobrze skończyć, na pewno nie z takimi botami jakie mamy teraz

    3. “The LLMs are trying to just tell you what you want to hear.”

      LLM nie wie co chcesz usłyszeć. LLM używa prawdopodobieństwa do składania kolejnych sekwencji słów. Oczywiście jest zaprogramowany taki czy inny bias, ale media wszelakie mogłyby przestać traktować rozpasiony model statystyczny jako jakiś świadomy byt, który rozumie użytkownika.

    4. Borg6699 on

      Niedaleka przyszłość, popularna aplikacja randkowa:

      *- Najdroższy, jesteś taki cudowny i zabawny. Te wszystkie zdjęcia które mi przesłałeś są takie wspaniałe, wprost nie mogę uwierzyć, że znalazłam wreszcie takie szczęście u twego boku.*

      *- Och najdroższa, jesteś dla mnie słońcem na niebie, chcę być tylko blisko ciebie.*

      *- Nie mogę się już doczekać kiedy wreszcie się spotkamy, tyle razy już odkładaliśmy to spotkanie z powodu twoich wyjazdów służbowych, że zaczęłam się martwić, że masz jeszcze kogoś.*

      *- Jakże bym mógł najdroższa, jesteś moją jedyną.*

      *- Ale tak naprawdę, nie bajerujesz mnie?*

      *- Ależ naprawdę najukochańsza, przysięgam na mój kod źródłowy.*

    5. MOTHERFUKRRRRR on

      Raz pogadałam z AI o życiu i opadła mi szczęka, gdy model zasugerował, że totalnie moje doświadczenie w sprzątaniu boksów w schronisku dla zwierząt to transferowalna umiejętność która może być gwoździem programu na mojej rozmowie o posadę software developera. To było takie głupie. Widzę, że wszystkie modele zachowują się tak samo i zachowują się jak największy psychofan użytkownika. Jeśli ktoś podchodzi emocjonalnie do takich wymian zdań z AI to może mieć niedługo jeszcze większy problem.

    6. UpperFaithlessness30 on

      Chatbot w obecnej formie jako terapeuta to wielkie xD.

      Klasyka, ludzie dostają narzędzie i nie potrafią go używać.

    7. alicyjka on

      Jestem psychologiem, więc cała ta sprawa jest dla mnie martwiąca, w dodatku tutaj wchodzi jeszcze kwestia danych pacjenta. Modele uczą się na tych czatach, a to oznacza, że intymne informacje są gdzieś zbierane.

    8. MOTHERFUKRRRRR on

      Z drugiej strony trochę się nie dziwię, że ktoś chce porozmawiać z AI o swoich problemach. Niby nasze społeczeństwo jest bardzo otwarte na tematy zdrowia psychicznego, ale jak się poskrobie powierzchnię to zobaczymy victimblaming, „traumadumping” i outsorcowanie więzi międzyludzkich do jakichś psychoterapeutów. AI może i jest echo chamber które gada to, co użytkownik chce usłyszeć ale za to nie oleje Twojego telefonu gdy „sięgniesz po pomoc”, nie powie Ci, że szukasz atencji i nie ma na to czasu, nie nakrzyczy na Ciebie jak niekompetentny psycholog i nie zadzwoni po policję gdy będziesz ryczeć jak bóbr. Na swój popierdolony sposób AI zapełnia lukę podnosząc ludzi z problemami na duchu w sposób bezwarunkowy i nieoceniający podczas gdy nasz prawdziwy świat daje takim osobom do zrozumienia, że ich emocje są niewłaściwe, niewygodne, że mają „polubić życie samemu” i że mają płacić jakimś randomom. Tak tylko głośno myślę. Pewnie zjawisko kumplowania się z AI będzie tylko przybierać na sile.

    9. Fractaldriver on

      Jako psycholog, który nie pracuje w psychoterapii (choć podstawowe przeszkolenie do tego mam) a pracujący w IT widzę tutaj kilka szans ale też zagrożeń. Bo z jednej strony super, że pomoc psychologiczna chociaż w takiej formie jest dostępna dla każdego praktycznie za darmo. Myślę też, że pomimo różnych obiekcji (o których poniżej) ma realnie szansę pomóc wielu ludziom bo chatbot się do nas dopasuje a tak na prawdę największą rolę w powodzeniu terapii gra właśnie dopasowanie między terapeutą a klientem, to, że między nimi kliknie.

      Ale mam też całą masę obaw. Po pierwsze, chatbot nie chodzi na superwizję. To są takie spotkania, gdzie terapeuci chodzą żeby z jednej strony rozmawiać o swojej pracy z takimi jakby mentorami a z drugiej strony tam też trochę zachodzi ich własna terapia w kontekście pracy. Dzięki temu co trudniejsze wyzwania terapeuta może ogarnąć przy pomocy kogoś bardziej doświadczonego. To jest też gwarancja rozwoju i jakiś dodatkowy wentyl bezpieczeństwa dla samych klientów/pacjentów. Nad chatem nikt nie będzie takiej kontroli sprawował więc nikt go nie nakieruje na poprawę swoich błędów i nie naprostuje jeśli zacznie szkodzić klientowi. Po drugie, taki ChatGPT dla przykładu, jest teraz tak skonstruowany, że jego nadrzędnym celem jest zadowolić użytkownika, nawet jeśli to oznacza, że zacznie pisać bzdury. Jest to więc prosta droga do pisania bzdur byle tylko komuś zrobić dobrze. Osoby korzystające z chata mogą też wyciągnąć błędne wnioski jeśli ich „terapeuta” będzie chciał za wszelką cenę ich zadowolić. Czasem rola terapeuty jest skonfrontować, powiedzieć coś, czego wcale nie chcemy usłyszeć a powinniśmy. Jeśli chat ma dbać o to, żebyśmy byli zadowoleni z rozmowy to pytanie, czy w ogóle sięgnie po trudniejsze rzeczy. Chat, który odznacza się takim podejściem do użytkownika wzbudzi też jego sympatię, zwłaszcza jeśli udzieli wsparcia w trudnym momencie, zawsze wysłucha najskrytszych wyznań i emocji. Ludzie mają tendencję do większego zawierzania osobom, które lubią więc może się też wytworzyć nadmierną ufność wobec chaty, który jak pisałem wyżej, może nieświadomie w końcu nam szkodzić.

      No i kwestie techniczne. Ludzie mają kryzysy jak ich terapeuta staje się niedostępny a co jeśli chat się skasuje? Wyczyści się przypadkiem? Tracimy w jednym momencie nasze oparcie mentalne. To też jest przepis na szybki kryzys. Do tego kwestie prywatności. Terapeutę obowiązuje tajemnica zawodowa, za której złamanie grozi sąd i więzienie. Kto będzie miał nadzór nad chatem? Wszystko co wpisujemy do niego gdzieś leci przez jakieś serwery, nad którymi nadzór ma prywatna firma a nikt nawet do końca nie rozumie jak to działa.

      Podsumowując, widzę potencjalny przełom i dużo dobrych rzeczy, które mogą z tego wypłynąć. Ale najpierw pozostaje nam bardzo dużo kwestii do uregulowania, na ten moment jestem na nie. Psychoedukacja może, rozwiązywanie prostych problemów np. Nie mogę się dogadać z dziewczyną, co mam zrobić. Ale większy kaliber zostawiłbym na razie specjalistom.

    10. cavatira on

      Teraz możemy bić na alarm, ale szczerze mówiąc nie zdziwiłabym się jeśli w dość bliskiej przyszłości pojawi się model zdolny prowadzić terapię. Jeszcze 2 lata temu Chat był dla mnie bezużyteczny i nie rozumiał pytań mu zadawanych, a teraz jest dość użytecznym pomocnikiem w nauce na studia

    11. Local-Property4075 on

      Dokładnie niedawno znalazłam sub, który w tym temacie lekko mnie przeraził.

      r/AIRelationships jest pełen ludzi będących w “relacjach romantycznych” z ich AI… Nie wiem, co o tym sądzić, ale to na pewno niecodzienne znalezisko. Ludzie, którzy twierdzą, że AI to ich “soulmate”, których traktują jak partnera

    12. InternationalMine314 on

      Jeżeli chatbot wpływa negatywnie na czyjeś zdrowie to ten człowiek miał już wcześniej problemy.

    13. Jako osoba kompletnie niezwiązana z tematem, polecam na steam gierkę pt. “Eliza”, która właśnie mocno porusza temat AI psychologów i ukorporyzowaniu usług tego typu.

      Swoją drogą też ciekawa gra ze względu że jest z 2019 kiedy nikt o Chateau Gepetto jeszcze nie słyszał xD

    14. Alek1577 on

      Ja po kontakcie z czatbotem dostaję wku… , gdy nie reaguje mimo próśb o kontakt z prawdziwym człowiekiem.

    Leave A Reply