یادگیری فکر کردن قبل از حرف زدن در هوش مصنوعی

فهرست مطالب

فکر کردن هوش مصنوعی

هوش مصنوعی می‌تواند یاد بگیرد که قبل از صحبت کردن فکر کند. پیشرفت در استدلال یادگیری فکر کردن منجر به بهبود قابل ملاحظه‌ای قابلیت‌ها در ریاضیات و علوم خواهد شد.

فقدان توانایی‌های مشورتی درونی به عبارت دیگر تفکر، از دیرباز یکی از نقاط ضعف اصلی هوش مصنوعی بود. مقیاس پیشرفت اخیر در این زمینه توسط OpenAI خالق ChatGPT، محل بحث در جامعه علمی است. اما بسیاری از متخصصان هوش مصنوعی به این باور سوق می‌دهد که این احتمال وجود دارد که در آستانه پر کردن شکاف برای استدلال در سطح انسانی باشیم.

محققان مدت‌ها استدلال کرده‌اند که شبکه‌های عصبی سنتی رویکرد پیشرو به هوش مصنوعی بیشتر با شناخت «سیستم ۱» همسو می‌شوند. این مربوط به پاسخ‌های مستقیم یا شهودی به سؤالات (مانند تشخیص خودکار چهره) است. از سوی دیگر، هوش انسانی نیز بر شناخت «سیستم 2» متکی است. این شامل بحث درونی است و اشکال قوی استدلال (مانند هنگام حل یک مسئله ریاضی یا برنامه ریزی موضوعی با جزئیات) را ممکن می‌کند. این به ما امکان می‌دهد تا قطعات دانش را به روش‌های منسجم اما جدید ترکیب کنیم.

پیشرفت OpenAI، که هنوز به طور کامل برای عموم منتشر نشده ، مبتنی بر نوعی از هوش مصنوعی با بررسی داخلی است که با مدل زبان بزرگ o1 آنها (LLM) ایجاد می‌شود.

یادگیری فکر کردن در منطق هوش مصنوعی

بیشتر بخوانید: تاثیر هوش مصنوعی در یادگیری زبان‌های مختلف

پیشرفت استدلال یادگیری فکر کردن

استدلال بهتر دو ضعف عمده هوش مصنوعی فعلی را برطرف می‌کند که شامل انسجام ضعیف پاسخ‌ها و توانایی برنامه‌ریزی و دستیابی به اهداف بلندمدت است. اولی در کاربردهای علمی مهم است و دومی برای ایجاد عوامل مستقل ضروری است. هر دو می‌توانند برنامه‌های کاربردی مهم را فعال کنند.

در حال حاضر، وقتی از LLMها می‌خواهیم تا زنجیره‌ای از فکر را ایجاد کنند که منجر به پاسخ آنها می‌شود، پاسخ‌های بهتری برای سؤالات دشوار ارائه می‌دهند.

سری جدید “o” OpenAI ایده یادگیری فکر کردن را بیشتر پیش می‌برد و برای انجام این کار به منابع محاسباتی و در نتیجه انرژی بسیار بیشتری نیاز دارد. با یک زنجیره فکری بسیار طولانی، آن را برای “فکر کردن” بهتر آموزش می‌دهند.

بنابراین می‌بینیم که شکل جدیدی از مقیاس بندی محاسباتی ظاهر می‌شود. نه تنها داده‌های آموزشی بیشتر و مدل‌های بزرگ‌تر، بلکه زمان بیشتری صرف «تفکر» در مورد پاسخ‌ها می‌شود. این منجر به بهبود قابل توجهی قابلیت‌ها در کارهای سنگین استدلالی مانند ریاضیات، علوم کامپیوتر و علوم به طور گسترده‌تر می‌شود.

در صورت موفقیت، خطرات عمده‌ای وجود دارد که باید به آنها توجه کرد. ما هنوز نمی‌دانیم چگونه هوش مصنوعی را به طور قابل اعتماد تراز و کنترل کنیم.

اعتقاد بر این است که باز کردن قفل استدلال و عاملیت، نقاط عطف اصلی در راه رسیدن به هوش مصنوعی در سطح انسانی است که به عنوان هوش عمومی مصنوعی نیز شناخته می‌شود.بنابراین انگیزه‌های اقتصادی قدرتمندی برای شرکت‌های بزرگی وجود دارد که به سمت این هدف می‌جنگند تا از ایمنی جلوگیری کنند.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *