هوش مصنوعی میتواند یاد بگیرد که قبل از صحبت کردن فکر کند. پیشرفت در استدلال یادگیری فکر کردن منجر به بهبود قابل ملاحظهای قابلیتها در ریاضیات و علوم خواهد شد.
فقدان تواناییهای مشورتی درونی به عبارت دیگر تفکر، از دیرباز یکی از نقاط ضعف اصلی هوش مصنوعی بود. مقیاس پیشرفت اخیر در این زمینه توسط OpenAI خالق ChatGPT، محل بحث در جامعه علمی است. اما بسیاری از متخصصان هوش مصنوعی به این باور سوق میدهد که این احتمال وجود دارد که در آستانه پر کردن شکاف برای استدلال در سطح انسانی باشیم.
محققان مدتها استدلال کردهاند که شبکههای عصبی سنتی رویکرد پیشرو به هوش مصنوعی بیشتر با شناخت «سیستم ۱» همسو میشوند. این مربوط به پاسخهای مستقیم یا شهودی به سؤالات (مانند تشخیص خودکار چهره) است. از سوی دیگر، هوش انسانی نیز بر شناخت «سیستم 2» متکی است. این شامل بحث درونی است و اشکال قوی استدلال (مانند هنگام حل یک مسئله ریاضی یا برنامه ریزی موضوعی با جزئیات) را ممکن میکند. این به ما امکان میدهد تا قطعات دانش را به روشهای منسجم اما جدید ترکیب کنیم.
پیشرفت OpenAI، که هنوز به طور کامل برای عموم منتشر نشده ، مبتنی بر نوعی از هوش مصنوعی با بررسی داخلی است که با مدل زبان بزرگ o1 آنها (LLM) ایجاد میشود.
بیشتر بخوانید: تاثیر هوش مصنوعی در یادگیری زبانهای مختلف
پیشرفت استدلال یادگیری فکر کردن
استدلال بهتر دو ضعف عمده هوش مصنوعی فعلی را برطرف میکند که شامل انسجام ضعیف پاسخها و توانایی برنامهریزی و دستیابی به اهداف بلندمدت است. اولی در کاربردهای علمی مهم است و دومی برای ایجاد عوامل مستقل ضروری است. هر دو میتوانند برنامههای کاربردی مهم را فعال کنند.
در حال حاضر، وقتی از LLMها میخواهیم تا زنجیرهای از فکر را ایجاد کنند که منجر به پاسخ آنها میشود، پاسخهای بهتری برای سؤالات دشوار ارائه میدهند.
سری جدید “o” OpenAI ایده یادگیری فکر کردن را بیشتر پیش میبرد و برای انجام این کار به منابع محاسباتی و در نتیجه انرژی بسیار بیشتری نیاز دارد. با یک زنجیره فکری بسیار طولانی، آن را برای “فکر کردن” بهتر آموزش میدهند.
بنابراین میبینیم که شکل جدیدی از مقیاس بندی محاسباتی ظاهر میشود. نه تنها دادههای آموزشی بیشتر و مدلهای بزرگتر، بلکه زمان بیشتری صرف «تفکر» در مورد پاسخها میشود. این منجر به بهبود قابل توجهی قابلیتها در کارهای سنگین استدلالی مانند ریاضیات، علوم کامپیوتر و علوم به طور گستردهتر میشود.
در صورت موفقیت، خطرات عمدهای وجود دارد که باید به آنها توجه کرد. ما هنوز نمیدانیم چگونه هوش مصنوعی را به طور قابل اعتماد تراز و کنترل کنیم.
اعتقاد بر این است که باز کردن قفل استدلال و عاملیت، نقاط عطف اصلی در راه رسیدن به هوش مصنوعی در سطح انسانی است که به عنوان هوش عمومی مصنوعی نیز شناخته میشود.بنابراین انگیزههای اقتصادی قدرتمندی برای شرکتهای بزرگی وجود دارد که به سمت این هدف میجنگند تا از ایمنی جلوگیری کنند.