186 usomaji

Taming AI hallucinations: kupunguza hallucinations katika maombi ya AI na mtihani wa binadamu katika mzunguko

kwa Indium9m2025/06/05
Read on Terminal Reader

Ndefu sana; Kusoma

Hallucinations AI hutokea wakati mfumo wa akili ya kiufundi huunda matokeo yasiyo sahihi au ya uongo kulingana na mifano ambayo haipo kweli.
featured image - Taming AI hallucinations: kupunguza hallucinations katika maombi ya AI na mtihani wa binadamu katika mzunguko
Indium HackerNoon profile picture

Kuondokana na hali ya hewa - Maelezo

“Alisema hivyo kwa ujasiri.Ilikuwa sahihi kwa ujasiri zaidi.”

Huu ndio, kwa hakika, ndio tatizo.

kamaufumbuzi wa generativeInashuka katika kila sekta - huduma ya afya, fedha, sheria, bidhaa za bure, elimu - ni rahisi kukimbia katika urahisi wa automatisering.Na kama makampuni ya haraka kuunganisha mifano kubwa ya lugha katika msaada wa wateja, huduma ya afya, sheria, na maombi ya kifedha, saboteer kimya kinafichwa nyuma ya kila wito: tatizo la AI hallucination.

AI hallucinations hutokea wakati mfano huunda habari ambayo inaonekana uwezekano lakini ni ukweli usio sahihi, fabricated, au udanganyifu. Wakati LLMs kama GPT, Claude, na LLaMA wana uwezo wa kuvutia wa kuzalisha, hawana "kujua" ukweli. Wao kuzalisha mifano kulingana na uwezekano wa takwimu, sio ukweli ulioonyeshwa. Hii inafanya kuwa nguvu - na hatari - bila usimamizi sahihi.

Hivyo, jinsi ya kuzuia wanyama wa hallucination? na Mtihani wa Binadamu-in-the-Loop (HITL).

Nini maana ya hallucinations?

AI hallucinations hutokea wakati mfumo wa akili ya kiufundi huunda matokeo yasiyo sahihi au ya uongo kulingana na mifano ambayo haipo kwa kweli. Kimsingi, mfano "unafikiri" data au mahusiano ambayo haijatengenezwa, na kusababisha majibu yaliyotengenezwa au makosa. haya hallucinations inaweza kuonekana katika maandishi, picha, sauti, au mchakato wa uamuzi.

Hallucinations katika AI inaweza kupangwa kwa aina mbili:

Intrinsic hallucinations:Wakati AI inapinga au kutafsiri vibaya input yake (kwa mfano, kutaja chanzo au kuchanganya ukweli). hallucinations extrinsic: Wakati AI inafundisha habari bila msingi katika data yoyote ya input au mafunzo.

  1. Maoni ya ukweli

Mfano unajifunza jina, tarehe, ukweli, au uhusiano ambao haupo.

Mfano: "Marie Curie alitambua insulini mwaka wa 1921." (Alikuwa Frederick Banting na Charles Best.)

  1. Mawazo ya kontekstual

Majibu hayakubaliki na wito au nia ya mtumiaji.

Mfano: Unatafuta madhara ya dawa, na AI inakupa faida badala yake.

  1. Maoni ya mantiki

Mfano hufanya ufafanuzi usio na makosa, unaingilia kinyume chake mwenyewe, au unakaribisha mawazo.

Kwa mfano: "Watu wote ni wanyama; wanyama wote wana majani; kwa hiyo, wanyama wote wana majani."

Ingawa hii inaweza kuonekana kuwa ya kuvutia kwa chatbot ya kawaida, ni hatari katika mazingira ya kisheria, matibabu, au kifedha. Utafiti uliofanywa na OpenAI uligundua kuwa karibu 40% ya majibu yanayotokana na AI katika kazi zinazohusiana na huduma za afya yalikuwa na makosa ya ukweli au hallucinations.

Katika maombi ya ulimwengu halisi, kama vile chatbots za AI ambazo zinapendekeza matibabu ya matibabu au kukusanya nyaraka za kisheria, hallucinations zinaweza kuwa sio rahisi tu lakini hatari.

Nini husababisha hali ya hewa?

Sababu kadhaa zinachangia halucinations katika mifano ya AI, ikiwa ni pamoja na:

Overfitting:Wakati mfano huwa karibu sana na data yake ya mafunzo, inaweza kushindwa kuzidisha kwa ufumbuzi mpya, kusababisha makosa na hallucinations wakati wa kukabiliana na hali mpya.

Poor Quality Training Data:Mfano unaweza kujifunza mifano isiyo sahihi na kuzalisha matokeo yasiyo ya kuaminika ikiwa data ya mafunzo ni gumu, isiyo kamili, au haina utofauti.

Biased Data:Miundombinu ya AI inaweza kuimarisha udanganyifu katika data ya mafunzo, na kusababisha utabiri usio na uadilifu. Hii sio tu hupunguza usahihi wa mfano lakini pia inakaribisha uaminifu wake.

Kwa nini maonyesho ya AI yanaendelea hata katika mifano ya juu zaidi

Ili kuelewa hallucinations, tunahitaji kujua jinsi LLMs kazi. Mifano hizi ni uwezekano next-token predictors mafunzo juu ya datasets kubwa.

Wakati tuning, maelekezo tuning, na uhandisi wa haraka husaidia kupunguza hallucinations, hawawezi kuondoa.

Lack of grounded knowledge:LLMs si "kujua" ukweli. wao kuzalisha kulingana na uhusiano.

Training data noise:Takwimu zisizo kamili, zinazoingilia kati, au zinazoingilia husababisha ufungaji mbaya.

Over-generalization:Mifano inaweza kutumika kwa kiwango kikubwa, hata mahali ambako hazipatikani.

Lack of reasoning:Wakati mifano inaweza kuiga mawazo, hawaelewi kweli mantiki au causality.

Unverifiable sources:LLMs mara nyingi kuchanganya vyanzo halisi na bandia wakati wa kuzalisha quote. Hivyo, jinsi tunavyojenga maombi ya AI tunaweza kuaminika?

Kwa nini mtihani wa jadi huanguka mfupi

Unaweza kujiuliza, "Je, hatuwezi tu kujaribu AI kama tunavyofanya programu?"

Si kwa kweli.

Majaribio ya programu ya jadi inategemea tabia ya deterministic - unatarajia matokeo sawa kwa kuingia sawa. LLMs, kwa upande mwingine, ni yasiyo ya deterministic. Majaribio sawa yanaweza kuzalisha matokeo tofauti kulingana na mazingira, joto la mfano, au upya.

Hata mifumo ya majaribio ya automatiska inapigana kulinganisha majibu ya LLM kwa ukweli, uwiano wa mazingira, sauti, na nia ya mtumiaji, hasa wakati majibu yanaonekana sahihi.

Utafiti wa binadamu katika mzunguko (HITL): Antidote kwa AI Overconfidence

Utafiti wa binadamu-in-the-Loop ni mbinu iliyoundwa ambayo inaweka binadamu - wataalam wa uwanja, watafiti, watumiaji - katika katikati ya uhakiki wa LLM. Ni kuhusu kuratibu, hukumu, kuimarisha, na kuboresha majibu yanayotokana na AI kutumia mawazo ya binadamu, ufahamu wa mazingira, na kufikiri muhimu.

Hii haina maana ya kuondoa automatisering. inamaanisha kuunganisha akili ya algorithm na hukumu ya binadamu - maelewano kati ya silicon na roho.

Watu hupima matokeo yaliyotokana na AI, hasa kwa matukio ya matumizi ya hatari, na kutoa maoni juu ya:

  • Ukweli wa ukweli
  • Umuhimu wa kontekst
  • Matatizo ya kimaadili au udanganyifu
  • Maonyesho ya Hallucination
  • Tone na nia ya kuunganisha

Kipengele muhimu cha uchunguzi wa HITL:

  1. Prompt Evaluation

    Humans assess whether the model’s response accurately reflects the input prompt.

  2. Fact Verification

Kila output ni kuangalia dhidi ya vyanzo vya kuaminika au ujuzi wa mada.

  1. Maoni ya makosa

Makosa yanajumuishwa (kwa mfano, makosa ya ukweli, makosa ya mantiki, tofauti ya sauti, aina ya hallucination).

  1. Uzito wa Scoring

Makosa ni alama kwa athari—ukosefu mdogo vs. uongo mkubwa.

  1. Maoni ya Feedback

Majibu hutumiwa au kurekebisha mfano (RLHF), mwongozo wa kurekebisha, au mifano ya kushindwa kwa orodha nyeusi.

Mchakato wa kazi: Testing ya HITL katika vitendo

Hebu tutachanganya katika mstari wa kawaida:

  1. Prompt & Response Generation AI hutoa majibu ya maombi yaliyopangwa ambayo yanafunika matukio ya matumizi yaliyotarajiwa.
  2. Wataalam wa Evaluation & Tagging Domain (au wafanyabiashara waliohitimu) wanafanya tathmini ya majibu kwa kutumia sehemu zilizoelezwa kabla, kama vile usahihi, uendelevu, ukamilifu, hisia, nk.
  3. Annotation & Feedback Logging Tester's tag halusinated majibu, tathmini umuhimu wao, na kupendekeza marekebisho.
  4. Mfano Tuning au Prompt Iteration Kulingana na uchambuzi, au mfano ni fine-tuned na data bora, au prompts ni kurekebishwa kwa uwazi na vikwazo.
  5. Mchoro wa kuthibitisha Mfano wa kuboreshwa unatathmini tena. Kisha, kuosha na kurudia mpaka hali ya hallucinations iko chini ya kiwango cha kukubalika.

HITL katika vitendo: Mfumo wa mtihani wa sampuli

Hebu tufuate mzunguko wa mtihani wa msingi wa HITL:

Input:

Maonyesho: "Kujumuisha masharti muhimu ya Sheria ya hewa safi ya Marekani."

Model Output:

Sheria ya hewa safi, iliyopitishwa mwaka wa 1990, inapiga marufuku uzalishaji wote kutoka kwa injini za dizeli na ilikuwa sheria ya kwanza ya kukabiliana na joto la dunia.

Human Review:

Fact 1:Sheria ya hewa safi ilipitishwa mwaka wa 1963, iliyobadilishwa mwaka wa 1970, 1977 na 1990.

Fact 2:Inapunguza uzalishaji wa mafuta lakini haina kuzuia.

Fact 3:Inategemea uchafuzi wa hewa, sio hasa joto la dunia.

Action Taken:

  • Matokeo yameorodheshwa kama "Hallucinated" na makosa matatu muhimu.
  • Toleo la kurekebishwa liliwasilishwa kwa upya.
  • Haraka kurekebisha kuwa maalum.
  • Jibu kutumika kama kesi katika mwongozo wa uhandisi wa haraka.

Mfano wa ulimwengu halisi: AI katika huduma za afya

Fikiria chatbot ya huduma ya afya inayoendeshwa na LLM. Mtu anasema: "Je, ninaweza kuchukua ibuprofen na dawa zangu za shinikizo la damu?"

AI inasema: "Ndiyo, ibuprofen ni salama na dawa za shinikizo la damu."

Katika baadhi ya matukio, ibuprofen inaweza kuongeza shinikizo la damu au kuingiliana na ACE inhibitors.

Katika hali hii, utekelezaji wa mtihani wa HITL utakuwa:

  • Flag majibu ya AI kama hallucinated na hatari.
  • Kumbuka mageuzi ya ukweli (kwa mfano, "Tazama na daktari wako; ibuprofen inaweza kuongeza shinikizo la damu katika baadhi ya kesi.")
  • Kufanya upya mfano au kuingiza maonyesho ya tahadhari katika mtiririko wa kazi.
  • Ongeza upungufu wa kuongezeka kwa maswali ya kibinafsi kwa watendaji wa binadamu.

Faida za uchunguzi wa HITL

Reduced Hallucination Rate LLMs inaweza kurekebishwa ili kuzalisha majibu zaidi ya ukweli na yanayohusiana kupitia majaribio ya iterative na maoni ya binadamu.

Uaminifu na Ufuatiliaji Sekta muhimu (kama vile huduma ya afya, fedha, na kisheria) zinahitaji ufuatiliaji wa sheria na ufafanuzi - ufuatiliaji wa binadamu hutoa wote.

Ufafanuzi wa HITL husaidia kukamata makosa ya ukweli na maudhui yenye matatizo - ufafanuzi, stereotypes, sumu - ambayo majaribio ya automatiska yanaweza kupuuza.

Uzoefu bora wa mtumiaji Majibu ya bure ya hallucination huongeza ujasiri wa mtumiaji, kuridhika, na kukubalika.

Jinsi ya kutumia Hitl Testing

During model development:Hasa kwa LLM maalum ya kikoa au maombi mazuri.

For high-risk applications:Madaktari, kisheria, fedha, au kitu chochote kinachohusiana na usalama wa binadamu.

In post-deployment monitoring:Kuanzisha vifungo vya maoni ili kuzuia maumivu katika mazingira ya kuishi. Katika utafiti maalum wa huduma za afya, 80% ya maambukizi ya makosa katika zana za uchambuzi wa AI yamerekebishwa wakati wanasayansi wa binadamu walihudhuria mchakato wa uamuzi. Hii inaonyesha umuhimu wa uhakiki wa binadamu kupunguza maumivu katika maombi muhimu.

Scaling HITL: Kuunganisha automatisering na ujuzi wa binadamu

Kama faida kama uchunguzi wa HITL ni, kupanua kwa ufanisi inahitaji mchanganyiko wa ubunifu wa zana na watu.

Utafiti wa rangi na upinzani kwa mifano ya mtihani wa shinikizo. Utengenezaji wa mwongozo wa synthetic ili kufunika kesi za upana. Watafiti wa wingi kwa tathmini za hatari ndogo. Watafiti wa moja kwa moja ili kuonyesha hali ya uwezekano (wakati huo kuongezeka kwa watafiti wa binadamu). Dashboards za UI za maoni ambapo washirika wa biashara na makampuni madogo na madogo wanaweza kuhesabu na kuandika matokeo.

How To Prevent AI Hallucination?

Jinsi ya kuzuia hallucinations?

Best Practices for HITL Testing

Kujenga sehemu ya tathmini iliyoundwa kwa binadamu ili kutathmini matokeo ya LLM. Kuingiza wataalam wa uwanja tofauti ili kugundua makosa ya nuance. Utayarisha majaribio ya chini wakati wa kuongezeka kwa majibu ya hatari kwa binadamu. Kujenga mitambo ya maoni ya kufundisha na kuimarisha. Usijaribu tu mara moja - jaribio mara kwa mara.

Wakati uchunguzi wa HITL unakuwa hauwezi kujadiliwa

Sio kesi zote za matumizi zinahitaji kiwango sawa cha uchunguzi. Lakini kwa maombi muhimu, yanayohusiana na ufuatiliaji, au maombi ya kimaadili, HITL ni ulinzi wa mbele.

Use Cases That Demand HITL:

Healthcare:Uchunguzi, mapendekezo ya matibabu, muhtasari wa malalamiko ya bima.

Legal:Uchambuzi wa sheria ya kesi, utekelezaji wa mikataba, maagizo ya kanuni.

FinanceUshauri wa uwekezaji, ufahamu wa portfolio, tathmini ya hatari.

Customer Service:Usimamizi wa migogoro, maswali ya malipo, na mwongozo wa bidhaa.

News & Media:Ripoti ya ukweli, kuzalisha quote, udhibiti wa ubaguzi.

Maoni ya baadaye: Tunaweza Kuondoa AI Hallucination?

Labda sio kabisa.Lakini tunaweza kusimamia na kupunguza kwa viwango vya kukubalika, hasa katika matukio ya matumizi mazuri.

AI ni co-pilot yenye nguvu, lakini si ya kutokuwa na makosa. Kuondoka bila kudhibiti, hallucinations inaweza kuharibu uaminifu, kutoa taarifa mbaya kwa watumiaji, na kuweka mashirika katika hatari.

Pamoja na LLM kuwa kiwango cha msingi cha vifaa vya biashara vya AI, majaribio ya HITL yataendelea kutoka hatua ya QA ya chaguo hadi mazoezi ya utawala wa kiwango.

Baada ya yote, akili inaweza kuwa kiufundi, lakini jukumu ni mwanadamu.

At Indium, we deliver high AI-quality assurance & Huduma za uchunguzi wa LLMkuimarisha utendaji wa mfano, kuhakikisha mifumo yako ya AI ni ya kuaminika, sahihi, na inapatikana kwa maombi ya biashara. mbinu yetu ya wataalam inahakikisha kwamba mifumo ya AI na utekelezaji wa AI ni bora, kupunguza makosa na kujenga imani katika mifumo ya automatiska.

Maswali ya mara kwa mara juu ya HITL na HITL Testing

  1. Can AI models be trained to recognize their own hallucinations in real-time?

    Yes, AI can identify some hallucinations in real-time with feedback loops and hallucination detectors, but the accuracy is still limited.

  2. Are AI hallucinations completely preventable?

    No, hallucinations aren’t entirely preventable, but they can be significantly reduced through better training, grounding, and human validation.

  3. Can HITL testing identify patterns of failure that traditional AI validation methods might miss?

    Yes, HITL testing can identify failure patterns by leveraging human expertise to spot subtle errors that traditional AI validation might overlook. This human oversight helps uncover edge cases and complex scenarios where AI models might struggle.


Trending Topics

blockchaincryptocurrencyhackernoon-top-storyprogrammingsoftware-developmenttechnologystartuphackernoon-booksBitcoinbooks