ai hallucination

«توهم هوش مصنوعی» یا Hallucination و اثر آن بر ترجمه ماشینی

هوش مصنوعی در همه زمینه‌ها، از جمله ترجمه ماشینی، توانسته مرزهای زبانی را جابه‌جا کند؛ اما هنور با پدیده‌ای به نام «توهم هوش مصنوعی» یا Hallucination روبه‌روست. این مشکل زمانی رخ می‌دهد که سیستم، متنی تولید می‌کند که با واقعیت یا متن اصلی مطابقت ندارد و گاهی کاملاً نادرست است. اثرات این مشکل محدود به دقت خروجی نیست؛ بلکه اعتماد کاربران به فناوری را نیز به چالش می‌کشد. 

بررسی علت‌های ایجاد Hallucination و روش‌های کاهش آن، کلید توسعه سیستم‌های قابل اعتماد و دقیق‌ است و مسیر تازه‌ای برای ارتقای کیفیت ارتباطات فراهم می‌آورد.

در این مقاله، پس از بررسی معنای توهم هوش مصنوعی و ارائه نمونه‌هایی از آن، اثرات این نوع توهم بر ترجمه ماشینی را بررسی کرده و راهکارهای کاهش آن را ارائه می‌دهیم.

«توهم هوش مصنوعی» یا Hallucination به چه معنا است؟

توهم هوش مصنوعی (AI Hallucination) به‌معنای این است که یک مدل هوش مصنوعی، خروجی نادرست یا خطادار تولید کند. در این شرایط، نتیجه‌ای ارائه می‌گردد که یا در داده‌های آموزشی وجود نداشته یا کاملاً ساخته و پرداخته هوش مصنوعی است. این پدیده زمانی ایجاد می‌شود که مدل، الگوها یا اشیایی را «ببیند» که در واقع وجود ندارند و این باعث تولید پاسخ‌های نادرست شود.

مثلاً در چت‌بات‌های مبتنی بر مدل‌های زبانی بزرگ (LLM) مانند ChatGPT، ممکن است جملاتی کاملاً صحیح به نظر برسند اما شامل اطلاعات غلط یا ساختگی باشند. پژوهش‌ها نشان می‌دهند که تا سال ۲۰۲۳، حدود ۲۷٪ از پاسخ‌های چنین مدل‌هایی، دارای Hallucination بودند و تقریباً ۴۶٪ متون تولیدشده شامل خطاهای واقعی‌اند. به‌طور خلاصه، این پدیده شباهتی به «توهم» انسان دارد، اما تفاوت اصلی آن با توهم انسانی این است که توهم هوش مصنوعی مربوط به پاسخ‌های نادرست ساخته‌شده است، نه تجربه‌های حسی واقعی.

نمونه‌های واقعی از توهم هوش مصنوعی

اخبار و مطالعات نشان داده‌اند که هوش مصنوعی در موارد زیر دچار توهم شده است.

۱. اطلاعات نادرست و ساختگی

بعضی ربات‌های خبری که با هوش مصنوعی کار می‌کنند و وظیفه دارند گزارش‌های فوری درباره اتفاقات در حال وقوع تولید کنند، بارها جزئیات ساختگی یا اطلاعات تأییدنشده ارائه داده‌اند و باعث انتشار اطلاعات غلط شده‌اند.

2. سوگیری الگوریتمی

نرم‌افزارهای استخدام مبتنی بر هوش مصنوعی ممکن است به دلیل داده‌های تاریخی استخدام، نسبت به‌برخی گروه‌های جمعیتی سوگیری پیدا کنند و به ناحق کاندیدای شایسته را رد کنند.

۴. خروجی‌های غیرمنتظره

چت‌بات Tay مایکروسافت از تعاملات کاربران در توییتر یاد می‌گرفت، به‌سرعت توییت‌های نژادپرستانه و توهین‌آمیز تولید کرد، چون داده‌های آموزشی او حاوی سوگیری بودند.

5. خطاهای تشخیص تصویر

 سیستم‌های هوش مصنوعی که روی شناسایی تصویر، آموزش دیده‌اند، ممکن است اشیایی را ببینند که وجود ندارند؛ مثلاً مدلی که برای شناسایی پرندگان آموزش دیده، ممکن است اشکال غیرمعمول در ابرها را پرنده شناسایی کند.

علت‌های ایجاد توهم هوش مصنوعی

چند دلیل اصلی برای بروز توهم در مدل‌های هوش مصنوعی وجود دارد.

  • کیفیت داده‌های آموزشی: مدل‌های هوش مصنوعی به داده‌های آموزشی وابسته‌اند. داده‌های اشتباه برچسب‌گذاری شده، نویز، سوگیری یا خطا باعث تولید پاسخ‌های ساختگی می‌شود.
  • داده‌های قدیمی: جهان دائم در حال تغییر است. مدل‌های آموزش‌دیده روی داده‌های قدیمی ممکن است اطلاعات یا روندهای جدید را نادیده بگیرند و در مواجهه با موقعیت‌های تازه، پاسخ اشتباه دهند.
  • کمبود زمینه یا کانتکست در داده‌ها: ورودی‌های اشتباه یا متناقض ممکن است باعث تولید توهم شوند. 

به‌طور کلی، ما اغلب به نتایج تولید‌شده توسط هوش مصنوعی اعتماد می‌کنیم، درحالی‌که ممکن است اطلاعات قابل اعتماد به نظر برسند اما نادرست باشند. این مشکل بیشتر در مدل‌های زبانی بزرگ (LLM) رخ می‌دهد که روی داده‌های دارای مشکلات بالا آموزش دیده‌اند.

اثرات توهم هوش مصنوعی بر ترجمه ماشینی

این نوع توهم در مترجم آنلاین هوش مصنوعی هم دیده می‌شود و علاوه‌بر اثرات مخرب دیگر، می‌تواند کیفیت ترجمه‌ها را به‌شکل قابل توجهی کاهش دهد. مهم‌ترین اثرات توهم هوش مصنوعی در ترجمه ماشینی عبارتند از:

ایجاد معانی اشتباه یا اضافه

مترجم آنلاین ممکن است کلمات یا عبارات را طوری ترجمه کند که در متن اصلی وجود ندارند یا معنای واقعی آن‌ها را تغییر دهد. مثلاً یک جمله ساده در زبان مبدأ ممکن است با اضافه‌شدن مفاهیم اشتباه در زبان مقصد ترجمه شود.

تحریف حقایق یا اعداد

اگر متن، شامل داده‌های علمی، آماری یا تاریخی باشد، مدل ممکن است اعداد یا حقایق را اشتباه تولید کند، حتی اگر متن اصلی معتبر باشد.

ترجمه‌های غیرطبیعی یا عجیب

توهم هوش مصنوعی می‌تواند باعث شود جمله‌ای با ساختار دستوری صحیح ولی با معنای غیرمنطقی تولید شود. این موضوع مخصوصاً در متون تخصصی یا ادبی مشهود است.

مشکل در اصطلاحات فنی و فرهنگی

مدل ممکن است اصطلاحات تخصصی، اصطلاحات فرهنگی یا ضرب‌المثل‌ها را به‌شکلی نادرست ترجمه کند، حتی اگر مشابهی در زبان مقصد وجود داشته باشد.

از دست رفتن دقت و اعتماد

در متون حساس مانند پزشکی، حقوقی یا مالی، توهم‌های هوش مصنوعی می‌تواند باعث تصمیم‌گیری نادرست یا سوءتفاهم شود.

روش‌های مقابله با توهم هوش مصنوعی در ترجمه ماشینی

برای مقابله با توهم هوش مصنوعی در ابزارهای مترجم نوشتار، چند راهکار کاربردی وجود دارد که می‌توان آن‌ها را در سه دسته‌بندی اصلی زیر قرار داد.

۱. پیش از ترجمه

  • استفاده از داده‌های باکیفیت و معتبر: مطمئن‌شدن از اینکه متن منبع دقیق و بدون اشتباه است، احتمال تولید توهم را کاهش می‌دهد.
  • آماده‌سازی متن: جملات پیچیده و طولانی را به جملات کوتاه و ساده تقسیم کنید. متون شفاف و مستقیم، خطر تولید اطلاعات غیرواقعی را کاهش می‌دهند.
  • انتخاب مدل مناسب: استفاده از بهترین ابزار ترجمه هوش مصنوعی که روی متن‌های تخصصی و به‌روز آموزش دیده‌اند، ریسک خطا را کاهش می‌دهد.

۲. حین ترجمه

  • کنترل تطبیقی: در طول ترجمه، بررسی مکرر تطابق معنا با متن اصلی کمک می‌کند.
  • ترجمه مرحله‌ای: ابتدا ترجمه خام انجام دهید و سپس از مدل یا ابزار دیگری برای اصلاح معنایی و نگارشی آن استفاده کنید.
  • استفاده از چند هوش مصنوعی: برای ترجمه ماشینی، از چند هوش مصنوعی استفاده کنید و نتایج آن‌ها را با هم مقایسه کنید. 
  • استفاده از گزینه‌های چندگانه: بسیاری از سیستم‌های ترجمه ماشینی امکان تولید چند ترجمه را می‌دهند؛ انتخاب بهترین گزینه با مقایسه آن‌ها احتمال توهم را کاهش می‌دهد.

۳. پس از ترجمه

  • بازبینی انسانی: همیشه ترجمه‌های ماشینی را توسط مترجم انسانی با دانش تخصصی بررسی و اصلاح کنید.
  • ابزارهای ارزیابی کیفیت ترجمه: استفاده از نرم‌افزارهای بررسی صحت معنا و سبک می‌تواند ترجمه‌های توهم‌زده را شناسایی کند.
  • بازخورد به مدل: در سیستم‌های هوشمند امکان آموزش مدل با اصلاحات انسانی وجود دارد؛ این کار باعث کاهش خطاهای بعدی می‌شود.

آیا به هوش مصنوعی در ترجمه اعتماد کنیم؟

اعتماد کامل به هوش مصنوعی در ترجمه، مخصوصاً در متون مهم و تخصصی، خطرناک است، اما در برخی شرایط می‌توان به آن تا حدی اعتماد کرد. 

چه زمانی می‌توان به AI اعتماد کرد؟

در موارد زیر اعتماد به نرم افزارهای مترجم هوش مصنوعی مشکلی ایجاد نمی‌کند.

  • متون ساده و عمومی: متن‌های روزمره، ایمیل‌ها یا پیام‌های کوتاه که پیچیدگی معنایی ندارند، معمولاً با هوش مصنوعی به‌خوبی ترجمه می‌شوند.
  • پیش‌خوانی سریع: برای فهم کلی متن، ترجمه ماشینی می‌تواند سرعت کار را بسیار بالا ببرد.
  • متون تکراری یا استاندارد: اسناد با ساختار مشخص، مانند فرم‌ها یا جداول، ریسک توهم کمتری دارند.

چه زمانی نباید به AI اعتماد کرد؟

در موارد زیر نباید به‌طور کامل به ترجمه ماشینی اعتماد کنید.

  • متون تخصصی یا علمی: پزشکی، حقوقی، فنی و مالی نیازمند دقت بالا هستند و توهم هوش مصنوعی می‌تواند خطرناک باشد.
  • متون ادبی و فرهنگی: اصطلاحات، ضرب‌المثل‌ها و لحن نویسنده ممکن است اشتباه منتقل شوند.
  • اطلاعات حساس یا تصمیم‌ساز: هر نوع ترجمه که نتیجه‌اش بر تصمیم‌گیری مهم اثر می‌گذارد، باید حتماً بازبینی انسانی شود.

نتیجه‌گیری

برای جلوگیری از توهم هوش مصنوعی در ترجمه، بهترین رویکرد، ترکیب هوش مصنوعی و بازبینی انسانی است؛ هوش مصنوعی سرعت ترجمه را بالا می‌برد و بازبینی انسانی دقت آن را تضمین می‌کند. همچنین ارائه بازخورد و اصلاح خطاها به سیستم، احتمال تکرار اشتباهات در آینده را کاهش می‌دهد.

اسکرول به بالا