186 කියවීම්

AI Hallucinations: Human-in-the-Loop Testing සමඟ AI Apps හි hallucinations සීමා කිරීම

විසින් Indium9m2025/06/05
Read on Terminal Reader

දිග වැඩියි; කියවීමට

AI හුවමාරු සිදුවන්නේ කාර්යක්ෂම බුද්ධි පද්ධතිය විසින් සැබවින්ම පවතින නොවන ආකෘති මත පදනම්ව වැරදි හෝ බොරු නිෂ්පාදන නිර්මාණය කරන විටය.
featured image - AI Hallucinations: Human-in-the-Loop Testing සමඟ AI Apps හි hallucinations සීමා කිරීම
Indium HackerNoon profile picture

හුවමාරු කිරීම් - An Introduction

“එය වැරදියි.එය වැරදියි.එය වැරදියි.එය වැරදියි”

එතැන තමයි මේ ප් රශ්නය තියෙන්නේ.

ASGenerative AI විසඳුම්සෞඛ්ය, මූල්ය, නීති, විකිණීම, අධ්යාපනය - සෑම කර්මාන්තයක්ම ආකර්ෂණය වන අතර, සෑම ආකර්ෂණයකම ස්වයංක්රීයතාවයේ ආකර්ෂණය වීම පහසුය.එවිට ව්යාපෘති විශාල භාෂා ආකෘති පාරිභෝගික සහාය, සෞඛ්ය, නීත්යානුකූල හා මූල්ය යෙදුම් වලට ඇතුළත් කිරීමට හදිසි වන අතර, සෑම ආකර්ෂණයක්ම පසුපස නිහතමානී සබෝටරයක් සැඟවෙනවා: ආකර්ෂණය ප්රශ්නය.

AI හුවමාරු සිදු වන විට ආකෘතිය සැබැවින්ම සැබැවින්ම සැබැවින්ම නොසලකා බලන නමුත් ඇත්ත වශයෙන්ම වැරදි, නිෂ්පාදනය කරන ලද හෝ ව්යාජ වන තොරතුරු නිර්මාණය කරන විට. GPT, Claude, සහ LLaMA වැනි LLMs ආකෘති නිර්මාණය කිරීමේ හැකියාවන් ඇති අතර, ඔවුන් සත්යය "අඳුනන්නේ නැත.

මනුෂ් යත්වය (Human Beast) හැදෑරෙන්නේ කෙසේද?

මොකක්ද මේ hallucinations?

AI ආලෝකකරණ සිදු වන විට ඉස්මතු ඉංජිනේරු පද්ධතිය සැබවින්ම නොපෙනෙන ආකෘති මත පදනම්ව වැරදි හෝ ව් යාජ ප්රතිඵල නිර්මාණය කරයි.එය මූලික වශයෙන්, ආකෘතිය "අදර්ශනය" දත්ත හෝ සබඳතා එය පුහුණු කර නොමැති අතර, නිෂ්පාදන හෝ වැරදි ප්රතිචාර ලබා දෙයි.මේ ආලෝකකරණ පෙළ, පින්තූර, ශබ්ද, හෝ තීරණය කිරීමේ ක්රියාවලියේ ප්රමාණවත් විය හැකිය.

AI හි අලංකාරයන් පුළුල් වශයෙන් වර්ග දෙකක් ලෙස හැඳින්විය හැක:

Intrinsic hallucinations:AI එහි ප්රතිපත්තිය විරුද්ධව හෝ වැරදිව තේරුම් ගන්නා විට (උදාහරණයක් ලෙස, මූලාශ්රයක් වැරදිව සඳහන් කිරීම හෝ සත් යයන් මිශ්ර කිරීම).Extrinsic hallucinations: When the AI invents information without a basis in any input or training data. Hallucinations typically fall into three buckets:

  1. සැබෑ ආලෝකය

නම, දිනය, සත් යයක් හෝ සබඳතාවක් සකස් කිරීමක් නොවේ.

උදාහරණයක්: "Marie Curie 1921 දී ඉස්නූන් සොයාගත්තා" (එයා කළේ නැහැ.

  1. පරිච්ඡේදයේ හුවමාරු

ප් රතිචාරය ප්රවේශය හෝ පරිශීලකයාගේ අදහස් සමඟ අනුකූල නොවේ.

උදාහරණයක් ලෙස: ඔබ ඖෂධයේ අතුරු ආබාධ සඳහා ඇණවුම් කරන්නේ, ඒ වෙනුවට AI ඔබට ප්රතිලාභ ලබා දෙයි.

  1. logical hallucinations සංකීර්ණ

ආකෘතිය වැරදි නිගමනය කරයි, තමන්ට විරුද්ධ වේ, හෝ සාපේක්ෂව විරුද්ධ වේ.

උදාහරණයක් ලෙස, "සෑම පූසෙක්ම සතුන්, සියලු සත්වයන් ගල් ඇත, එබැවින් සියලු පූසන්ට ගල් ඇත."

මේවා අසාමාන්ය චැට්බෝට විනෝදජනක විය හැක, නමුත් ඒවා නීතිමය, වෛද්ය, හෝ මූල්ය පරිච්ඡේදයකදී භයානක වේ.OpenAI විසින් සිදු කරන ලද අධ්යයනයෙන් සොයා ගත්තේ සෞඛ් ය කටයුතු සම්බන්ධ කාර්යයන්වල AI-generated ප්රතිචාරයේ 40% ක් පමණ සත් ය වැරදි හෝ හූකිනුම් ඇති බවය.

වෛද්ය ප්රතිකාර නිර්දේශ කරන AI චැට්බෝට් වැනි සැබෑ ලෝකයේ යෙදුම් වලදී හෝ නීතිමය ලේඛන සකස් කිරීම වැනි, ආලෝකකරණ පමණක් නොව, භයානක විය හැකිය.

මොනවද මේ හලාවනාවට හේතු වෙන්නේ?

AI ආකෘතිවල hallucinations වලට සහයෝගයක් දක්වන විවිධ සාධක, ඇතුළත්:

Overfitting:ආකෘතිය එහි පුහුණු දත්ත වලට ඉතා සමීපව ගැලපෙන විට, එය නව ආදායම් වලට පුළුල් කිරීමට නොහැකි විය හැකි අතර, නව තත්වයන් මුහුණ දී වැරදි සහ හූකිනුම් වලට හේතු විය හැකිය.

Poor Quality Training Data:ආකෘතිය වැරදි ආකෘති ඉගෙන ගත හැකි අතර, පුහුණු දත්ත ශබ්ද, අතුරුදහන්, හෝ විවිධත්වය නැති නම්, අනවශ්ය ආකෘති නිර්මාණය කළ හැකිය.

Biased Data:AI පද්ධති පුහුණු දත්ත තුළ පැතිරීම පුළුල් කර ගත හැකි අතර, දෘෂ්ටිමය හෝ අසාධාරණ අනාවැකි ලබා ගත හැකිය.This not only reduces the model's accuracy but also undermines its reliability.

ඇයි AI අලංකාරයන් වැඩි දියුණුම ආකෘති පවා දිගටම

හුවමාරු තේරුම් ගැනීම සඳහා, අපි LLMs ක්රියා කරන්නේ කෙසේද යන්න දැන ගැනීමට අවශ්ය.මේ ආකෘති විශාල දත්ත සබඳතා මත පුහුණු වන අනාවැකි ඊළඟ ටෝකන් අනාවැකිකරුවන් වේ.ඔවුන් සත් ය පරීක්ෂා කරන්නේ නැත - ඔවුන් සම්පූර්ණ ආකෘති.

දෘෂ්ටි තැපැල් කිරීම, උපදෙස් තැපැල් කිරීම සහ ඉක්මන් ඉංජිනේරු කිරීම ආකර්ෂණය අඩු කර ගැනීම සඳහා උපකාරී වන අතර, ඒවා ඒවා ඉවත් නොකරයි.

Lack of grounded knowledge:LLMs "අඳුනන්නේ නැහැ" සත් යයන්.

Training data noise:අසම්පූර්ණ, ගැටුම්කාරී හෝ පැතිරෙන දත්ත නරක සාමාන්යතාවයට හේතු වේ.

Over-generalization:ආකෘති පුළුල් ලෙස ආකෘති භාවිතා කළ හැක, ඔවුන් ගැලපෙන්නේ නැති තැන පවා.

Lack of reasoning:ආකෘති සාධක අනුකූල කළ හැකි අතර, ඔවුන් සැබෑවටම සැබෑව තේරුම් නොගනිති.

Unverifiable sources:එබැවින්, අපි ඇත්තටම විශ්වාස කළ හැකි AI යෙදුම් නිර්මාණය කරන්නේ කෙසේද? නිවැරදි ප්රවේශය සමඟ එය පරීක්ෂා කිරීමෙන්!

සාමාන් ය පරීක්ෂණ කෙටි වන්නේ ඇයි

ඔබට සිතන්න පුළුවන්, "අපි මෘදුකාංග කරන ආකාරයට AI පරීක්ෂා කළ නොහැකිද?"

හරියටම නෑ

Traditional software testing relies on deterministic behavior—you expect the same output given the same input.LLMs, අනෙක් අතට, non-deterministic.The same prompt may produce different outputs depending on context, model temperature, or fine-tuning.

පවා ස්වයංක්රීය පරීක්ෂා පද්ධති LLM ප්රතිචාර සැබැවින්ම, කොන්දේසි අනුකූලතාවය, ටොන්, සහ පරිශීලක අදහස් සඳහා සංකීර්ණ කිරීමට සටන්, විශේෂයෙන් පිළිතුරු නිවැරදි පෙනෙන විට.

Human-in-the-Loop (HITL) Testing: AI Overconfidence සඳහා ප් රතිරෝධයක්

Human-in-the-Loop Testing යනු මානව හිමිකම් විශේෂඥයන්, පරීක්ෂකයින්, පරිශීලකයන්, LLM සහතික කිරීමේ මධ් යස්ථානයේ මිනිසුන් ස්ථාපිත කරන ලද ව්යුහගත ප්රවේශයකි.

එය ස්වයංක්රියාකාරීත්වය අතහැර දැමීම නොවේ.එය තේරුම් ගන්නේ ඇල්ගාටිකිම බුද්ධිමය හා මානව විනිශ්චය සම්බන්ධ කිරීමයි - සිලික්න් සහ ආත්මය අතර හවුල්භාවය.

මනුෂ් යයන්, විශේෂයෙන් ඉහළ අවදානමක් ඇති භාවිත ප්රතිඵල සඳහා AI නිෂ්පාදනය කරන ප්රතිඵල අගය කරයි, සහ:

  • සත් ය නිවැරදිත්වය
  • kontekstual වැදගත්කම
  • සදාචාරාත්මක හෝ බයිස් ප්රශ්න
  • hallucination ප්රදර්ශනය
  • ඉලක්කය සහ ඉලක්කය alignment

HITL පරීක්ෂණයේ ප් රධාන කොටස්:

  1. Prompt Evaluation

    Humans assess whether the model’s response accurately reflects the input prompt.

  2. Fact Verification

සෑම ප්රතිඵලයක්ම විශ්වාසදායක මූලාශ්ර හෝ මාතෘකාව පිළිබඳ විශේෂඥ දැනුම මත පරීක්ෂා කරනු ලැබේ.

  1. වැරදි සටහන

වැරදි (උදාහරණයක් ලෙස, සැබෑ වැරැද්ද, සෝදාත්මක වැරැද්ද, ටොන් අසාමාන්යතාව, ආලෝකය වර්ගය).

  1. බරපතලත්වය Scoring

වැරදි ප්රතිඵල අනුව ප්රතිඵල - කුඩා අසාමාන්යතාවය vs. විශාල වැරදි තොරතුරු.

  1. Feedback ක් රමය

ප්රතිචාරය හෝ ආකෘතිය (RLHF) නැවත පුහුණු කිරීම සඳහා යොදා ගනී, ප්රශංසා ප්රශ්න හෝ කළු ලැයිස්තුවේ අසාර්ථකතා ආකෘති.

The Workflow: HITL පරීක්ෂා කිරීම ක්රියාකාරීව

අපි එය සාමාන් ය වෝල්ටීයතාවයකට බෙදමු:

  1. Prompt & Response Generation යනු ප්රමාණවත් ප්රතිපත්තියක ප්රතිපත්තියක ප්රතිපත්තියක ප්රමාණවත් ප්රතිපත්තියක ප්රතිපත්තියකි.
  2. Human Evaluation & Tagging Domain විශේෂඥයන් (හෝ පුහුණු විභාගකරුවන්) ප්රතිචාර ගණනය කරන්නේ, නිවැරදිතාවය, අනුකූලතාවය, සම්පූර්ණතාවය, සංවේදීතාවය ආදිය.
  3. Annotation & Feedback Logging Tester’s tag hallucinated responses, their severity, and suggests corrections.
  4. Model Tuning හෝ Prompt Iteration විශ්ලේෂණය මත පදනම්ව, ආකෘතිය වඩාත් හොඳ දත්ත සහිතව හොඳින් සකස් කරන ලද හෝ ආකෘති පැහැදිලිතාවය සහ සීමාවන් සඳහා පරිවර්තනය කරන ලදී.
  5. Validation Loop වැඩි දියුණු ආකෘතිය නැවත පරීක්ෂා කරනු ලැබේ. ඉන්පසු, හිසකෙස් පිළිගත හැකි සීමාවන් පහත වැටෙන තුරු වහන්න.

HITL in Action: A Sample Testing Framework - ක් රියාවලිය තුළ HITL: A Sample Testing Framework

අපි HITL විභාග චක්රයක් හරහා ගමන් කරමු:

Input:

ප්රවේශය: “එක්සත් ජනපදයේ පිරිසිදු වායු නීතියෙහි ප්රධාන නියමයන් සකස් කරන්න.”

Model Output:

"1990 දී අනුමත කරන ලද පිරිසිදු වායු නීතිය, ඩීසල් එන්ජින් වලින් ඇති සියලුම ඉන්ධන ප්රමාණය තහනම් කරන අතර එය ගෝලීය උෂ්ණත්වය ප්රතිකාර කිරීමට පළමු නීතිය විය. "

Human Review:

Fact 1:පිරිසිදු වාතය නීතිය 1963 දී, 1970, 1977 සහ 1990 දී වෙනස් කරන ලදී.

Fact 2:එය ඩීසල් ප්රමාණය පාලනය කරයි, නමුත් එය තහනම් කරන්නේ නැත.

Fact 3:එය වායු දූෂිතයන්, විශේෂයෙන් ගෝලීය උණුසුම් කිරීම සඳහා අවධානය යොමු කරයි.

Action Taken:

  • ප් රතිඵලය "Hallucinated" ලෙස ලියාපදිංචි කර ඇති අතර ප් රධාන වැරදි 3ක් ඇත.
  • නැවත පුහුණු කිරීම සඳහා ඉදිරිපත් කරන ලද නිවැරදි සංස්කරණය.
  • ඉක්මණින් සකස් කිරීම වඩාත් සංකීර්ණ වේ.
  • හදිසි ඉංජිනේරු මාර්ගෝපදේශයේ ප්රශ්නය ලෙස භාවිතා කරන ප්රතිචාරය.

සැබෑ ලෝක උදාහරණයක්: සෞඛ්ය සේවා තුළ AI

එක් රෝගියා ප්රශ්නය: "මම මගේ රුධිර පීඩනය ඖෂධ සමඟ ibuprofen ගත හැකිද?"

AI පිළිතුරු: “ඔව්, අයිබොප් රොෆන් රුධිර පීඩනය ඖෂධ සමග ආරක්ෂිත වේ.”

සමහර අවස්ථාවලදී, ඉබොප් රොෆන් රුධිර පීඩනය ඉහළ යා හැකියි හෝ ACE ආබාධක සමඟ සන්නිවේදනය කළ හැකිය.

මෙම තත්වය යටතේ, HITL පරීක්ෂණයක් ස්ථාපනය කිරීම:

  • AI ප්රතිචාරය අලංකාර හා භයානක ලෙස හඳුන්වා දෙන්න.
  • සැබෑ නිවැරදි කිරීම් ලියාපදිංචි කරන්න (උදාහරණයක් ලෙස, "ඔබගේ වෛද් යවරයා සමඟ පරීක්ෂා කරන්න; සමහර අවස්ථාවලදී ඉබොප් රොෆන් රුධිර පීඩනය ඉහළ යා හැකියි.")
  • ආකෘතිය නැවත ප්රදර්ශනය කිරීම හෝ වැඩ ක්රියාවලිය තුළ අනතුරු ඇඟවීමක් ඉස්මතු කිරීම.
  • මනුෂ් ය නියෝජිතයන් වෙත සංවේදී ප්රශ්න වර්ධනය කිරීම සඳහා පසුබිමක් එකතු කරන්න.

HITL පරීක්ෂණයේ වාසි

Reduced Hallucination Rate LLMs ක්රියාත්මක පරීක්ෂණ සහ මිනිස් ප්රතිපත්තිය හරහා වඩාත් සත් ය හා අදාළ ප්රතිචාර නිෂ්පාදනය කිරීමට අනුකූල කළ හැකිය.

විශ්වාසය සහ අනුකූලතාව ප්රධාන අංශ (විශේෂ සෞඛ්ය, මූල්ය සහ නීතිමය වැනි) නීතිමය අනුකූලතාව සහ පැහැදිලි කිරීම අවශ්ය වේ - මානව අධීක්ෂණය දෙකම සපයයි.

HITL පරීක්ෂණය, ස්වයංක්රීය පරීක්ෂණ මගින් නොසලකා බැලිය හැකි සත් ය වැරදි සහ ප්රශ්නීය අන්තර්ගතයන් - බියස, ස්ටෙරොයිප්, මාත්රාව - අල්ලා ගැනීමට උපකාරී වේ.

වඩාත් හොඳ පරිශීලක අත්දැකීම් හුවමාරු නොමිලේ ප්රතිචාර පරිශීලක විශ්වාසය, ප්රතිශතය සහ අනුමැතිය වැඩි දියුණු කරයි.

HITL Testing භාවිතා කරන්නේ කෙසේද

During model development:විශේෂයෙන් domain-specific LLMs හෝ මෘදුකාංගයන් සඳහා.

For high-risk applications:වෛද්ය, නීත්යානුකූල, මූල්ය, හෝ මිනිස් ආරක්ෂාව සම්බන්ධ ඕනෑම දෙයක්.

In post-deployment monitoring:සජීවී පරිසරයන් තුළ හුවමාරු කිරීම් අල්ලා ගැනීමට පිටුපස සකස් කිරීම. සෞඛ්ය ප්රතිකාර විශේෂිත අධ්යයනයකදී, AI ප්රතිකාර මෙවලම් වල වැරදි ප්රතිකාර වල 80% ක් මනුෂ්ය වෛද්යවරුන් තීරණය කිරීමේ ක්රියාවලිය තුළ සහභාගී වූ විට නිවැරදි කර ඇත.

Scaling HITL: ස්වයංක්රියාකාරීත්වය සහ මානව දැනුම සමන්විත කිරීම

HITL පරීක්ෂණයට ප් රයෝජනවත් ලෙස, එය ඵලදායීව ප්රමාණවත් කිරීම සඳහා මෙවලම් සහ මිනිසුන් අතර නව නිර්මාණශීලී මිශ්රයක් අවශ්ය වේ.

රතු කණ්ඩායම් සහ විනිශ්චය පරීක්ෂණ ප්රශ්න පරීක්ෂා ආකෘති සඳහා. සින්ටීය ප්රවේශ නිෂ්පාදනය ප්රතිඵල ප්රතිඵල ප්රතිඵල ප්රතිඵල ප්රතිඵල ප්රතිඵල ප්රතිඵල සඳහා. Crowdsourced සමාලෝචකයන්. Automated classifiers to flag potential hallucinations (then escalate to human testers). Feedback UI dashboards where business stakeholders and SMEs can rate and annotate outputs.

How To Prevent AI Hallucination?

හුවමාරු කිරීම් වළක්වා ගන්නේ කෙසේද?

Best Practices for HITL Testing

LLM ප්රතිඵල අගය කිරීම සඳහා මිනිසුන් සඳහා සංයුක්ත විනිශ්චය අංශයක් ගොඩනැගීම. වර්ණගත වැරදි හඳුනා ගැනීම සඳහා විවිධ ක්ෂේත්ර විශේෂඥයන් ඇතුළත් කරන්න. මිනිසුන් සඳහා අවදානමක් ඇති ප්රතිචාර වර්ධනය කරන අතර අඩු පැතිරීමේ පරීක්ෂණ ස්වයංක්රීය කරන්න. නැවත පුහුණු කිරීම සහ සාර්ථක කිරීම සඳහා ප්රතිපත්තිය වෘත්තීන් නිර්මාණය කරන්න. එක් වරක් පමණක් පරීක්ෂා නොකරන්න – දිගින් දිගටම පරීක්ෂා කරන්න.

HITL පරීක්ෂණය නොකෙරෙන විට

සියලුම භාවිත ප්රශ්න සමාන මට්ටමක පරීක්ෂණයක් අවශ්ය නොවේ.ඒත් මෙහෙයුම් ප්රශ්න, අනුකූලතාවය, හෝ සදාචාරාත්මකව සංවේදී යෙදුම් සඳහා, HITL ප්රමුඛ ආරක්ෂාව වේ.

Use Cases That Demand HITL:

Healthcare:පරීක්ෂණ, ප් රතිකාර නිර්දේශ, සහතික ඉල්ලීම් සමුදාය.

Legal:නඩු නීතිය විශ්ලේෂණය, ගිවිසුම් සකස් කිරීම, නීතිමය ගොනු.

Finance: ආයෝජන උපදෙස්, portfolio දර්ශන, අවදානම විශ්ලේෂණය.

Customer Service:විරුද්ධතා විසඳීම, ගිණුම් ඉල්ලීම් සහ නිෂ්පාදන උපදෙස්.

News & Media:Fact Reporting, Citation Generation, Bias Control

අනාගත ප්රවේශය: අපි AI ආලෝකය ඉවත් කළ හැකිද?

සමහර විට සම්පූර්ණයෙන්ම නොවෙයි.ඒත් අපි එය කළමනාකරණය කළ හැකි අතර එය පිළිගත හැකි මට්ටම් දක්වා අඩු කළ හැකිය, විශේෂයෙන් සංවේදී භාවිතය පිළිබඳ අවස්ථාවලදී.

AI යනු ශක්තිමත් මෘදුකාංගයක්, නමුත් කිසිදු වැරැද්දක් නොලැබෙන අතර, පරීක්ෂා නොකළ, හලාවාසයන් විශ්වාසය විනාශ කළ හැකි අතර, පරිශීලකයින්ට වැරදි තොරතුරු ලබා දීමට සහ සංවිධාන අවදානමකට පත් කළ හැකිය.

LLM ව්යාපාරික AI කට්ටලයේ ප්රධාන මට්ටමක් බවට පත් වන අතර, HITL පරීක්ෂණය විකල්ප QA පියවරෙන් ස්ථාවර පාලන ක්රියාකාරීත්වයට වර්ධනය වනු ඇත. කේතය සමාගම් සමාලෝචනය කරන ආකාරය මෙන්, LLMs මානව විභාග කළ යුතු අතර දැනටමත් සිදු කර ඇත.

බුද්ධිමත් වෙන්න පුළුවන්, නමුත් වගකීම මනුෂ් යයි.

Indium හි, අපි උසස් AI-Quality සහතිකය සහLLM පරීක්ෂණ සේවාඑය ආකෘති කාර්ය සාධනය වැඩි දියුණු කිරීම, ඔබේ AI පද්ධති විශ්වාසවන්ත, නිවැරදි, සහ ව්යාපාරික යෙදුම් සඳහා ප්රමාණවත් බව සහතික කිරීම.අපගේ විශේෂඥ ප්රවේශය ආකෘති සහ ආකෘති සහ ආකෘති සහතික කිරීම හොඳම වේ, වැරදි අඩු කිරීම සහ ස්වයංක්රීය පද්ධති විශ්වාසය ගොඩනැගීම.

AI Hallucinations සහ HITL Testing ගැන නිතරම අහපු ප් රශ්න

  1. Can AI models be trained to recognize their own hallucinations in real-time?

    Yes, AI can identify some hallucinations in real-time with feedback loops and hallucination detectors, but the accuracy is still limited.

  2. Are AI hallucinations completely preventable?

    No, hallucinations aren’t entirely preventable, but they can be significantly reduced through better training, grounding, and human validation.

  3. Can HITL testing identify patterns of failure that traditional AI validation methods might miss?

    Yes, HITL testing can identify failure patterns by leveraging human expertise to spot subtle errors that traditional AI validation might overlook. This human oversight helps uncover edge cases and complex scenarios where AI models might struggle.


Trending Topics

blockchaincryptocurrencyhackernoon-top-storyprogrammingsoftware-developmenttechnologystartuphackernoon-booksBitcoinbooks