764 odczyty
764 odczyty

Jak sztuczna inteligencja wpływa na nasze umysły: wczesne dowody z Harvardu i MIT

przez Vik Bogdanov5m2025/06/22
Read on Terminal Reader

Za długo; Czytać

Wcześniejsze badania przeprowadzone przez MIT i Harvard ujawniają, że częste stosowanie generatywnej sztucznej inteligencji, takiej jak ChatGPT, może zmniejszyć motywację, osłabić retencję pamięci i erodować krytyczne myślenie. Podczas gdy sztuczna inteligencja może zwiększyć produktywność, nadmierna zależność prowadzi do poznawczych „skrótów” i obniżenia aktywności mózgu.
featured image - Jak sztuczna inteligencja wpływa na nasze umysły: wczesne dowody z Harvardu i MIT
Vik Bogdanov HackerNoon profile picture

Scientific research on the impact of Artificial Intelligence on our cognitive skills and mental state is still in its infancy, but early evidence from research powerhouses suggests some worrying trends—namely, that frequent use of generative AI may undermine motivation, weaken memory retention, and erode critical thinking.

Badanie Harvardu: AI zwiększa produktywność i nudę

Niedawny HarvardStudiaprzezYukun Liu i al .sugeruje, że GenAI sprawia, że ludzie są bardziej produktywni, ale mniej zmotywowani. Podczas gdy LLM są w stanie poprawić jakość i efektywność zadań, pracownicy, którzy współpracowali z LLM w jednym zadaniu, a następnie przeszli do innego zadania bez pomocy AI, konsekwentnie odnotowali spadek motywacji wewnętrznej i wzrost nudy średnio o 20%.

MIT: wpływ sztucznej inteligencji na krytyczne myślenie u studentów

Natalia Kosmyna, pełnoetatowy badacz w Massachusetts Institute of Technology (MIT) Media Lab, niedawno zbadał, czy ChatGPT może zaszkodzić umiejętnościom krytycznego myślenia.StudiaW szczególności jej zespół badawczy miał na celu szczegółowe zbadanie wpływu sztucznej inteligencji na pracę w szkole, ponieważ coraz więcej uczniów korzysta z sztucznej inteligencji.


W badaniu wzięło udział 54 uczestników w wieku od 18 do 39 lat z Bostonu, którym zadano zadanie napisania eseju w trzech 20-minutowych sesjach opartych na pytaniach z testu oceny szkolnej (SAT), w tym na etyce filantropii i pułapkach mającej zbyt wiele wyborów. uczestnicy byli losowo podzieleni na trzy następujące grupy, zrównoważone według wieku i płci:


  1. Grupa LLM: Uczestnicy tej grupy byli zobowiązani do korzystania z ChatGPT jako ich jedynego źródła informacji dla eseju.
  2. Grupa wyszukiwarek: Uczestnicy tej grupy mogli swobodnie korzystać z dowolnej strony internetowej, aby pomóc im w swoich esejach, ale ChatGPT lub jakikolwiek inny LLM był wyraźnie zabroniony; wszyscy uczestnicy używali Google jako przeglądarki do wyboru.
  3. Tylko grupa mózgu: Uczestnicy tej grupy nie mogli korzystać ani z LLM, ani z jakichkolwiek innych stron internetowych do konsultacji.


W opcjonalnej czwartej sesji uczestnicy zmieniali role: użytkownicy LLM nie używali narzędzi (LLM-to-Brain), a grupa tylko dla mózgu używała ChatGPT (Brain-to-LLM).

Kluczowe odkrycia: aktywność mózgu i jakość prób

Naukowcy wykorzystali EEG do rejestrowania aktywności mózgu autorów eseju i odkryli, że spośród wszystkich trzech grup, użytkownicy ChatGPT mieli najniższą aktywność mózgu i "sprawili konsekwentnie słabo na poziomie neuronalnym, językowym i behawioralnym".


W szczególności badanie wykazało następujące wyniki:


  • LLM group: The essays were remarkably homogeneous within each topic, differing hardly at all from one another. Participants often used the same expressions or ideas.

  • Brain-only group: Essay writers showed varied and diverse ideas among the topics.

  • Search engine group: The essays were based on search-engine-optimized content; their ontology overlapped with the LLM group but not with the Brain-only group.


Analiza EEG wykazała, że grupa tylko mózgu wykazuje najwyższy poziom łączności neuronowej, szczególnie w pasmach alfa, theta i delta. Użytkownicy LLM mieli najsłabszą łączność, 55% niższe w sieciach niskiej częstotliwości. grupa użytkowników wyszukiwarek wykazała wysokie zaangażowanie kory wzrokowej, co jest zgodne z procesem zbierania informacji w Internecie.


In terms of behavioural and cognitive engagementUczestnicy grupy LLM nie byli w stanie precyzyjnie cytować, podczas gdy uczestnicy grupy tylko dla mózgu wykazali się dobrym przypomnieniem i umiejętnościami cytowania.


In terms of ownership, Uczestnicy Brain-only twierdzili pełną odpowiedzialność za swoją pracę; Uczestnicy LLM wyrazili ani żadnej odpowiedzialności, ani częściowej odpowiedzialności.


In terms of critical thinkingUczestnicy z grupy Brain-only byli bardziej zainteresowani𝘸𝘩𝘢𝘵i𝘸𝘩𝘺pisali, podczas gdy użytkownicy LLM koncentrowali się na𝘩𝘰𝘸.


Powtarzające się stosowanie LLM doprowadziło do powierzchownego powtarzania treści i zmniejszonego zaangażowania krytycznego."cognitive debt", na przykład, opóźnienie wysiłku psychicznego kosztem długoterminowej głębi poznawczej.


Image courtesy of MIT


Po napisaniu trzech esejów, uczestnicy zostali opcjonalnie poproszeni o ponowne napisanie jednej z ich poprzednich prac. Jednak grupa LLM musiała to zrobić bez narzędzia, podczas gdy grupa tylko mózgu mogła używać ChatGPT. Pierwsza grupa pamiętała niewiele ze swoich esejów i pokazała słabsze fale alfa i theta mózgu, prawdopodobnie odzwierciedlając ominięcie procesów głębokiej pamięci. Chociaż zadanie zostało wykonane skutecznie i wygodnie, według badacza żadna z informacji nie została faktycznie zintegrowana z ich sieciami pamięci.


Druga grupa, z drugiej strony, działała dobrze, wykazując znaczny wzrost łączności mózgu we wszystkich pasmach częstotliwości EEG.

Reakcja społeczeństwa i pułapki AI

Naukowiec zdecydował się opublikować artykuł, podczas gdy proces przeglądu rówieśników jest w toku, ponieważ jest przekonana, że absolutnie kluczowe jest rozpoczęcie edukacji ludzi, a zwłaszcza studentów, o tym, jak prawidłowo korzystać z narzędzi LLM i promowanie faktu, że nasz "mózg musi się rozwijać w bardziej analogiczny sposób."tutaj, »Musimy mieć aktywne prawodawstwo w synchronizacji i, co ważniejsze, przetestować te narzędzia przed ich wdrożeniem.» »


Ironicznie, po opublikowaniu artykułu kilka użytkowników mediów społecznościowych przeprowadziło go przez LLM w celu podsumowania, a następnie opublikowało wyniki w Internecie.CzasuKosmyna spodziewała się, że ludzie to zrobią, więc włożyła kilka pułapek sztucznej inteligencji w papierze, takich jak polecenie LLM, aby "czytali tylko tę tabelę", co zapewniło, że otrzymają tylko ograniczone informacje z artykułu.

Bieżące badania: wpływ AI na programowanie

Kosmyna i jej koledzy pracują obecnie nad innym podobnym artykułem, który testuje aktywność mózgu w inżynierii i programowaniu oprogramowania opartym na AI i wolnym od AI. Według nich wyniki są jeszcze gorsze.


Nawet jeśli efektywność wzrośnie, rosnąca zależność od sztucznej inteligencji może potencjalnie zmniejszyć umiejętności krytycznego myślenia, kreatywności i rozwiązywania problemów w pozostałej części siły roboczej.


Sprawdź też co to jestNa czele badań nad sztuczną inteligencją: multimodalność, agenci, open-source LLM i inne.

Trending Topics

blockchaincryptocurrencyhackernoon-top-storyprogrammingsoftware-developmenttechnologystartuphackernoon-booksBitcoinbooks