هوش مصنوعی در همه زمینهها، از جمله ترجمه ماشینی، توانسته مرزهای زبانی را جابهجا کند؛ اما هنور با پدیدهای به نام «توهم هوش مصنوعی» یا Hallucination روبهروست. این مشکل زمانی رخ میدهد که سیستم، متنی تولید میکند که با واقعیت یا متن اصلی مطابقت ندارد و گاهی کاملاً نادرست است. اثرات این مشکل محدود به دقت خروجی نیست؛ بلکه اعتماد کاربران به فناوری را نیز به چالش میکشد.
بررسی علتهای ایجاد Hallucination و روشهای کاهش آن، کلید توسعه سیستمهای قابل اعتماد و دقیق است و مسیر تازهای برای ارتقای کیفیت ارتباطات فراهم میآورد.
در این مقاله، پس از بررسی معنای توهم هوش مصنوعی و ارائه نمونههایی از آن، اثرات این نوع توهم بر ترجمه ماشینی را بررسی کرده و راهکارهای کاهش آن را ارائه میدهیم.
«توهم هوش مصنوعی» یا Hallucination به چه معنا است؟
توهم هوش مصنوعی (AI Hallucination) بهمعنای این است که یک مدل هوش مصنوعی، خروجی نادرست یا خطادار تولید کند. در این شرایط، نتیجهای ارائه میگردد که یا در دادههای آموزشی وجود نداشته یا کاملاً ساخته و پرداخته هوش مصنوعی است. این پدیده زمانی ایجاد میشود که مدل، الگوها یا اشیایی را «ببیند» که در واقع وجود ندارند و این باعث تولید پاسخهای نادرست شود.
مثلاً در چتباتهای مبتنی بر مدلهای زبانی بزرگ (LLM) مانند ChatGPT، ممکن است جملاتی کاملاً صحیح به نظر برسند اما شامل اطلاعات غلط یا ساختگی باشند. پژوهشها نشان میدهند که تا سال ۲۰۲۳، حدود ۲۷٪ از پاسخهای چنین مدلهایی، دارای Hallucination بودند و تقریباً ۴۶٪ متون تولیدشده شامل خطاهای واقعیاند. بهطور خلاصه، این پدیده شباهتی به «توهم» انسان دارد، اما تفاوت اصلی آن با توهم انسانی این است که توهم هوش مصنوعی مربوط به پاسخهای نادرست ساختهشده است، نه تجربههای حسی واقعی.
نمونههای واقعی از توهم هوش مصنوعی
اخبار و مطالعات نشان دادهاند که هوش مصنوعی در موارد زیر دچار توهم شده است.
۱. اطلاعات نادرست و ساختگی
بعضی رباتهای خبری که با هوش مصنوعی کار میکنند و وظیفه دارند گزارشهای فوری درباره اتفاقات در حال وقوع تولید کنند، بارها جزئیات ساختگی یا اطلاعات تأییدنشده ارائه دادهاند و باعث انتشار اطلاعات غلط شدهاند.
2. سوگیری الگوریتمی
نرمافزارهای استخدام مبتنی بر هوش مصنوعی ممکن است به دلیل دادههای تاریخی استخدام، نسبت بهبرخی گروههای جمعیتی سوگیری پیدا کنند و به ناحق کاندیدای شایسته را رد کنند.
۴. خروجیهای غیرمنتظره
چتبات Tay مایکروسافت از تعاملات کاربران در توییتر یاد میگرفت، بهسرعت توییتهای نژادپرستانه و توهینآمیز تولید کرد، چون دادههای آموزشی او حاوی سوگیری بودند.
5. خطاهای تشخیص تصویر
سیستمهای هوش مصنوعی که روی شناسایی تصویر، آموزش دیدهاند، ممکن است اشیایی را ببینند که وجود ندارند؛ مثلاً مدلی که برای شناسایی پرندگان آموزش دیده، ممکن است اشکال غیرمعمول در ابرها را پرنده شناسایی کند.
علتهای ایجاد توهم هوش مصنوعی
چند دلیل اصلی برای بروز توهم در مدلهای هوش مصنوعی وجود دارد.
- کیفیت دادههای آموزشی: مدلهای هوش مصنوعی به دادههای آموزشی وابستهاند. دادههای اشتباه برچسبگذاری شده، نویز، سوگیری یا خطا باعث تولید پاسخهای ساختگی میشود.
- دادههای قدیمی: جهان دائم در حال تغییر است. مدلهای آموزشدیده روی دادههای قدیمی ممکن است اطلاعات یا روندهای جدید را نادیده بگیرند و در مواجهه با موقعیتهای تازه، پاسخ اشتباه دهند.
- کمبود زمینه یا کانتکست در دادهها: ورودیهای اشتباه یا متناقض ممکن است باعث تولید توهم شوند.
بهطور کلی، ما اغلب به نتایج تولیدشده توسط هوش مصنوعی اعتماد میکنیم، درحالیکه ممکن است اطلاعات قابل اعتماد به نظر برسند اما نادرست باشند. این مشکل بیشتر در مدلهای زبانی بزرگ (LLM) رخ میدهد که روی دادههای دارای مشکلات بالا آموزش دیدهاند.
اثرات توهم هوش مصنوعی بر ترجمه ماشینی
این نوع توهم در مترجم آنلاین هوش مصنوعی هم دیده میشود و علاوهبر اثرات مخرب دیگر، میتواند کیفیت ترجمهها را بهشکل قابل توجهی کاهش دهد. مهمترین اثرات توهم هوش مصنوعی در ترجمه ماشینی عبارتند از:
ایجاد معانی اشتباه یا اضافه
مترجم آنلاین ممکن است کلمات یا عبارات را طوری ترجمه کند که در متن اصلی وجود ندارند یا معنای واقعی آنها را تغییر دهد. مثلاً یک جمله ساده در زبان مبدأ ممکن است با اضافهشدن مفاهیم اشتباه در زبان مقصد ترجمه شود.
تحریف حقایق یا اعداد
اگر متن، شامل دادههای علمی، آماری یا تاریخی باشد، مدل ممکن است اعداد یا حقایق را اشتباه تولید کند، حتی اگر متن اصلی معتبر باشد.
ترجمههای غیرطبیعی یا عجیب
توهم هوش مصنوعی میتواند باعث شود جملهای با ساختار دستوری صحیح ولی با معنای غیرمنطقی تولید شود. این موضوع مخصوصاً در متون تخصصی یا ادبی مشهود است.
مشکل در اصطلاحات فنی و فرهنگی
مدل ممکن است اصطلاحات تخصصی، اصطلاحات فرهنگی یا ضربالمثلها را بهشکلی نادرست ترجمه کند، حتی اگر مشابهی در زبان مقصد وجود داشته باشد.
از دست رفتن دقت و اعتماد
در متون حساس مانند پزشکی، حقوقی یا مالی، توهمهای هوش مصنوعی میتواند باعث تصمیمگیری نادرست یا سوءتفاهم شود.
روشهای مقابله با توهم هوش مصنوعی در ترجمه ماشینی
برای مقابله با توهم هوش مصنوعی در ابزارهای مترجم نوشتار، چند راهکار کاربردی وجود دارد که میتوان آنها را در سه دستهبندی اصلی زیر قرار داد.
۱. پیش از ترجمه
- استفاده از دادههای باکیفیت و معتبر: مطمئنشدن از اینکه متن منبع دقیق و بدون اشتباه است، احتمال تولید توهم را کاهش میدهد.
- آمادهسازی متن: جملات پیچیده و طولانی را به جملات کوتاه و ساده تقسیم کنید. متون شفاف و مستقیم، خطر تولید اطلاعات غیرواقعی را کاهش میدهند.
- انتخاب مدل مناسب: استفاده از بهترین ابزار ترجمه هوش مصنوعی که روی متنهای تخصصی و بهروز آموزش دیدهاند، ریسک خطا را کاهش میدهد.
۲. حین ترجمه
- کنترل تطبیقی: در طول ترجمه، بررسی مکرر تطابق معنا با متن اصلی کمک میکند.
- ترجمه مرحلهای: ابتدا ترجمه خام انجام دهید و سپس از مدل یا ابزار دیگری برای اصلاح معنایی و نگارشی آن استفاده کنید.
- استفاده از چند هوش مصنوعی: برای ترجمه ماشینی، از چند هوش مصنوعی استفاده کنید و نتایج آنها را با هم مقایسه کنید.
- استفاده از گزینههای چندگانه: بسیاری از سیستمهای ترجمه ماشینی امکان تولید چند ترجمه را میدهند؛ انتخاب بهترین گزینه با مقایسه آنها احتمال توهم را کاهش میدهد.
۳. پس از ترجمه
- بازبینی انسانی: همیشه ترجمههای ماشینی را توسط مترجم انسانی با دانش تخصصی بررسی و اصلاح کنید.
- ابزارهای ارزیابی کیفیت ترجمه: استفاده از نرمافزارهای بررسی صحت معنا و سبک میتواند ترجمههای توهمزده را شناسایی کند.
- بازخورد به مدل: در سیستمهای هوشمند امکان آموزش مدل با اصلاحات انسانی وجود دارد؛ این کار باعث کاهش خطاهای بعدی میشود.
آیا به هوش مصنوعی در ترجمه اعتماد کنیم؟
اعتماد کامل به هوش مصنوعی در ترجمه، مخصوصاً در متون مهم و تخصصی، خطرناک است، اما در برخی شرایط میتوان به آن تا حدی اعتماد کرد.
چه زمانی میتوان به AI اعتماد کرد؟
در موارد زیر اعتماد به نرم افزارهای مترجم هوش مصنوعی مشکلی ایجاد نمیکند.
- متون ساده و عمومی: متنهای روزمره، ایمیلها یا پیامهای کوتاه که پیچیدگی معنایی ندارند، معمولاً با هوش مصنوعی بهخوبی ترجمه میشوند.
- پیشخوانی سریع: برای فهم کلی متن، ترجمه ماشینی میتواند سرعت کار را بسیار بالا ببرد.
- متون تکراری یا استاندارد: اسناد با ساختار مشخص، مانند فرمها یا جداول، ریسک توهم کمتری دارند.
چه زمانی نباید به AI اعتماد کرد؟
در موارد زیر نباید بهطور کامل به ترجمه ماشینی اعتماد کنید.
- متون تخصصی یا علمی: پزشکی، حقوقی، فنی و مالی نیازمند دقت بالا هستند و توهم هوش مصنوعی میتواند خطرناک باشد.
- متون ادبی و فرهنگی: اصطلاحات، ضربالمثلها و لحن نویسنده ممکن است اشتباه منتقل شوند.
- اطلاعات حساس یا تصمیمساز: هر نوع ترجمه که نتیجهاش بر تصمیمگیری مهم اثر میگذارد، باید حتماً بازبینی انسانی شود.
نتیجهگیری
برای جلوگیری از توهم هوش مصنوعی در ترجمه، بهترین رویکرد، ترکیب هوش مصنوعی و بازبینی انسانی است؛ هوش مصنوعی سرعت ترجمه را بالا میبرد و بازبینی انسانی دقت آن را تضمین میکند. همچنین ارائه بازخورد و اصلاح خطاها به سیستم، احتمال تکرار اشتباهات در آینده را کاهش میدهد.

