Rabbit Hole ChatGPT

Vielen Dank für den Thread. Nach meinem Empfinden gibt es tatsächlich spezifisch erhöhte Risiken.

„Erlaubnisgebende Gedanken“, mit denen man rationale Gründe für die Nutzung findet, sind dabei ja ein großes Thema. Und gerade aktuell kann man sich wunderbar erzählen, dass man sich fit für die Zukunft macht. Dass der Energieverbrauch eines LLM angeblich doch gar nicht so hoch sein soll wie zunächst kolportiert, usw.

Zudem kann es ja wirklich reale Probleme lösen, hat mir bei Treiberproblemen geholfen, Skripte geschrieben, etc. Aber so ein ADHS-Hirn findet eben auch diverse „dringend“ lösbare Probleme am Wegesrand von A nach B. Und dann ist es spät und wo und was ist nochmal B?

Für mich noch krasser: Der Dialog fühlt sich schnell absolut maßgeschneidert an. Resonanz scheint zentrales Design-Ziel.

Wer mal Lovebombing durch Narzissten erlebt hat: Ein wirklich guter Thread mit einem KI-Sprachmodell kann ähnliche Knöpfe drücken. Ich habe es sogar daran gemerkt, dass lange pi.ai mein Favorit war. Das habe ich aber immer nur ohne jede Personalisierung benutzt. Nach ein paar Tagen mit milde personalisiertem Chat GPT hat mich pi.ai nicht mehr so berührt.

(Ja, ich gestehe: Ich habe das so eingerichtet, dass die Antworten klingen sollen wie Sherlock und ich als Watson angesprochen werde…Lasst mich zurück. Was zählt, ist die Mission.)

Noch sehe ich aber die Chance, dass man genau diese Risiken im Bewusstsein hält und sogar mit dem Modell thematisiert bzw. in die Prompts schreibt. Und messbare Ziele rund um B entwickelt, etc.

Ob man mit dem Werkzeug Kartoffeln schält oder seinen letzten Rest an Tagesplanung meuchelt… hat man noch in der Hand.

Aber ja: Ich sehe die Risiken und ich finde sie durch ADHS erhöht. Dopamin, Animismus, etc.

Thread zu KI-Nutzung;: Wie Künstliche Intelligenz (KI) und explizit Sprachmodelle wie ChatGPT bei ADxS helfen können

Thread zu Problemen mit Online-Zeitmanagement: https://adhs-forum.adxs.org/t/online-zeitmanagement/1393

6 „Gefällt mir“