بسیاری از دانشمندان حوزهی زبانشناسی از جمله نوام چامسکی « Noam Chomsky»، بنیانگذار زبانشناسی مدرن، بر این باورند که زبانآموزان برای مهار ماهیت سرکش زبان روزمره به نوعی چسب نیاز دارند و آن چیزی به جز دستور زبان (سیستمی از قوانین برای تولید جملات دستوری) نیست.
برخلاف دیالوگهای ماندگار و زیبایی که در بیشتر کتابها و فیلمها به دقت نوشته شده است، زبان تعامل روزمره ما معمولاً آشفته و ناقص است، چراکه مملو از جملهبندیهای نادرست، شروعهای نادرست و وقفههای نا بهجا است. این مساله شامل هر نوع گفتوگویی از گپهای معمولی بین دوستان، مشاجره بین خواهر و برادر تا بحثهای رسمی در اتاق هیئت مدیره میشود. بنابراین با توجه به ماهیت تصادفی و تجربی زبان، معجزهآسا به نظر میرسید که هر کسی میتوانست تنها با تجربه زبان را یاد بگیرد.
هوش مصنوعی و یاد گیری زبان
از منظر این دیدگاه احتمالا کودکان هم باید یک الگوی دستور زبان در مغز خود داشته باشند که به آنها کمک میکند تا بر محدودیتهای تجربه زبانی خود غلبه کنند. به عنوان مثال، این الگو ممکن است حاوی یک ابر قانون خاص باشد که نحوه افزودن بخشهای جدید به عبارات موجود را دیکته میکند؛ پس از آن مغز کودک بررسی میکند که آیا زبان مادری او با چیزی که ساخته مطابقت دارد یا خیر؟
به این شکل که کودک انگلیسی زبان با توجه به همان الگوی اصلی میداند که فعل قبل از مفعول قرار میگیرد (مانند: I eat sushi)؛ در حالی که همان کودک اگر ملیتی ژاپنی داشته باشد، طبق ابر قانون خود میداند که فعل بعد از مفعول (در ژاپنی، ساختار همان جمله به صورت: I sushi eat) میآید.
اما بینش جدید در خصوص چگونگی یادگیری زبان از یک منبع خاص که احتمالا به ذهنتان هم خطور نکرده است، ناشی میشود و آن چیزی به جز هوش مصنوعی نیست! درواقع نسل جدیدی از مدلهای هوش مصنوعی میتوانند مقالات روزنامهای، شعر و کدهای کامپیوتری را پس از قرار گرفتن در معرض حجم زیادی از دادههای زبانی به عنوان ورودی بنویسند. بخش شگفتآورتر ماجرا این است که همهی این کارها برای هوش مصنوعی بدون کمک از دستور زبان یا همان گرامر انجام میشود.
هوش مصنوعی و یاد گیری زبان
بیان صحیح جملات بدون استفاده از دستور زبان
حتی اگر انتخاب کلمات مدلهای هوش مصنوعی گاهی عجیب، بیمعنا یا حاوی سوگیریهای نژادپرستانه، جنسیتی و موارد دیگر باشد، یک چیز در مورد جملهسازی این مدلها کاملاً واضح است؛ و آن این است که اکثریت قریب به اتفاق خروجی این مدلهای زبان هوش مصنوعی از نظر گرامری درست است! در حالی که هیچ الگوی دستور زبان یا قاعدهای به آنها داده نشده است و مدلها تنها با تکیه بر تجربهی زبانی، عبارات صحیحی را به عنوان خروجی ارائه میکنند.
در این میان یکی از شناخته شدهترین این مدلهای هوش مصنوعی، GPT-3 است که یک شبکهی عصبی یادگیری عمیق با ۱۷۵ میلیارد پارامتر و بسیار غولپیکر است. طی روند آموزش به این هوش مصنوعی صدها میلیارد کلمه از اینترنت، کتاب و ویکیپدیا به عنوان ورودی داده شد و از هوش مصنوعی خواسته شد که از آنچه یاد گرفته است برای پیشبینی کلمه بعدی در یک جمله استفاده کند. در همین راستا هنگامی که هوش مصنوعی پیشبینی اشتباهی میکرد، پارامترهای آن با استفاده از یک الگوریتم یادگیری خودکار تنظیم میشدند تا بتوانند با خطای کمتر کلمهی بعدی را پیشبینی کند!
جالب توجه است که GPT-3 میتواند متن قابل باوری را در واکنش به جملاتی مانند «خلاصهای از آخرین فیلم سریع و خشن …» یا «یک شعر به سبک امیلی دیکنسون» تولید کند. علاوه بر این GPT-3 میتواند به مقایسههایی در سطح SAT، سؤالات درک مطلب و حتی مسائل سادهی ریاضی پاسخ دهد که همهی آنها را با استفاده از یادگیری به شیوهی پیشبینی کلمه بعدی آموخته شده است!
مقایسه مدلهای هوش مصنوعی با مغز انسان
با این حال، شباهتهای عبارات خروجی از مدلهای هوش مصنوعی با زبان انسان در اینجا متوقف نمیشود و تحقیقات منتشر شده در مجلهی معروف «Nature Neuroscience» نشان میدهد که این شبکههای مصنوعی یادگیری عمیق از همان اصول محاسباتی مغز انسان استفاده میکنند. محققان این حوزه به رهبری عصبشناسی به نام اوری هاسون «Uri Hasson»، در ابتدا به مقایسهی پیشبینهای کلمات بعدی داستانی از پادکست «این زندگی آمریکایی» (This American Life) بین انسان و مدل هوش مصنوعی GPT-2 (برادر کوچک مدل GPT-3) پرداختند. طی این بررسیها مشخص شد که مغز انسان و هوش مصنوعی تقریباً در ۵۰ درصد مواقع دقیقاً همان کلمهی داستان را پیشبینی میکرد.
محققان در حین گوش دادن به داستان، فعالیت مغزی داوطلبان را ثبت کردند و در همین راستا بهترین توضیح برای الگوهای فعالسازی مشاهده شده در مغز داوطلبان، این بود که مغز مانند GPT-2، هنگام پیشبینی فقط از یک یا دو کلمه قبلی استفاده نمیکند، بلکه به بافت انباشته شدهای از ۱۰۰ کلمهی قبلی متکی است. به همین دلیل هم در مجموع، نویسندگان نتیجهگیری کردند که یافتههای آنها از سیگنالهای عصبی پیشبینیکننده و خود به خودی در زمانی که شرکتکنندگان به گفتار طبیعی آزمون گوش میدهند، نشان میدهد که پیشبینی فعال « active prediction» ممکن است زمینهی یادگیری مادامالعمر زبان در انسان را فراهم کند.
البته لازم است بدانید که یک نگرانی احتمالی در این آزمایش این است که مدلهای هوش مصنوعی از کلان دادهها (مدل هوش مصنوعی GPT-3 با تجربهی زبانیای معادل با ۲۰۰۰۰ سال، آموزش دیده است!) به عنوان ورودی استفاده میکنند. اما مطالعهی اولیهی دیگری که هنوز مورد بررسی کامل قرار نگرفته است، نشان میدهد که GPT-2 همچنان میتواند پیشبینیهای کلمه بعدی و فعالسازی مغز را حتی زمانی که تنها با ۱۰۰ میلیون کلمه آموزش دیده است، مدلسازی کند. لازم به ذکر است که این مقدار ورودی زبانی معادل با کلماتِ میانگین کودکان در طول ۱۰ سال اول زندگی است!
لازم به تاکید است که من در این مقاله به هیچوجه ادعا نمیکنم که مدلهای هوش مصنوعی GPT-3 یا GPT-2 روش یادگیری زبان را دقیقاً مشابه با کودکان یاد میگیرند؛ چراکه یکی از جنبههای مهم در نظر گرفتن چنین تشابهی درک است و هوش مصنوعی چیز زیادی از آنچه میگوید، درک نمیکند، در حالی که درک یکی از ارکان اساسی در زبان انسان است. با این حال، چیزی که این مدلها ثابت میکنند این است که یک یادگیرنده (اگرچه از جنس سیلیکون است!) میتواند زبان را به اندازه کافی و از طریق قرار گرفتن در معرض جملات گرامری کاملاً صحیح ادا کند و این کار را به روشی شبیه به پردازش مغز انسان انجام دهد.
باز تعریف بحث یادگیری زبان
برای سال های سال بسیاری از زبانشناسان بر این باور بودند که یادگیری زبان بدون یک الگوی دستور زبان داخلی، غیر ممکن است. اما همان طور که در طول این مقاله اشاره کردیم هوش مصنوعی جدید خلاف این موضوع را ثابت کرد. درواقع مدلهای هوش مصنوعی نشان میدهند که توانایی تولید جملاتی که به لحاظ دستور زبانی صحیح باشند را میتوان تنها با استفاده از تجربهی زبانی آموخت. بنابراین میتوان ادعا کرد که احتمالا کودکان برای یادگیری زبان نیازی به دستور زبان ذاتی و تطابق آن با آنچه میشنوند، ندارند! در عوض در این مسیر، کودکان باید تا آنجا که میتوانند درگیر مکالمههای مختلف باشند تا بتوانند مهارتهای زبانی خود را توسعه دهند. چراکه تجربه زبانی و نه دستور زبان، شاه کلید تبدیل شدن به فردی با بیان صحیح و رسا است.
منبع: Theconversation.Com