به گزارش خبرنگار ایکنا از اصفهان، دومین نشست از دوره آموزشی «عصر هوش مصنوعی» شامگاه دوشنبه، اول دیماه به همت خانه فناوریهای فرهنگی، وابسته به دفتر تبلیغات اسلامی اصفهان برگزار شد. این نشست با تدریس محمدمهدی خراسانی، متخصص هوش مصنوعی و مشاور و مجری هوشمندسازی فرآیندهای سازمانی، به بررسی مبانی و منطق عملکرد سیستمهای هوش مصنوعی اختصاص داشت.
وی در ابتدا با اشاره به حجم زیاد مباحث حوزه هوش مصنوعی اظهار کرد: هدف این نشست، انتقال گزیده و کاربردی مفاهیم است و ارائه فشرده و سنگین مطالب تخصصی در برنامه آن نیست. هدف اصلی که دنبال میشود، ایجاد درکی پایهای اما دقیق از نحوه کار مدلهای هوش مصنوعی است و مخاطب این دوره قرار نیست متخصص فنی یا برنامهنویس شود، بلکه باید بداند این فناوری چگونه عمل میکند تا بتواند از آن بهصورت درست و ایمن استفاده کند.
خراسانی با اشاره به بازکردن جعبه سیاه هوش مصنوعی گفت: بسیاری از کاربران، هوش مصنوعی را پدیدهای مرموز و غیرقابل فهم تصور میکنند، در صورتیکه بخش زیادی از این تصور نادرست است و میتوان با زبانی ساده، منطق پشت این سیستمها را فهمید. این آگاهی مانع بروز خطا در استفاده از ابزارهای هوش مصنوعی و وابستگی نادرست به آنها میشود.
وی ضمن مروری کوتاه بر تاریخچه هوش مصنوعی از دهه ۱۹۵۰، با اشاره به آزمون تورینگ، نخستین رباتهای صنعتی، دورههای رکود یا «زمستان هوش مصنوعی» و نقش شرکتهایی مانند گوگل و IBM بیان کرد: پیشرفت این فناوری همواره به سه عامل اصلی از جمله داده، الگوریتم و سختافزار وابسته بوده است. بسیاری از ایدههای قدیمی هوش مصنوعی فقط بهدلیل نبود سختافزار مناسب، سالها امکان اجرا نداشتند.
این متخصص هوش مصنوعی با تشریح مفهوم یادگیری ماشین (Machine Learning) ادامه داد: این مفهوم روشی است که در آن بهجای نوشتن دستورالعملهای دقیق برای ماشین، دادههایی به سیستم داده میشود تا الگوها و روابط را خودش کشف کند. با مقایسه برنامهنویسی کلاسیک و یادگیری ماشین، مدلهای هوش مصنوعی اساساً پیشبینیکننده هستند و خروجی آنها نتیجه پیشبینی با احتمال زیاد است، نه فهم انسانی.
وی ضمن معرفی شبکههای عصبی و یادگیری عمیق به زبان ساده افزود: شبکههای عصبی ساختارهایی الهامگرفته از مغز انسان هستند که از لایههایی از نورونهای مصنوعی تشکیل شدهاند. آموزش یک مدل هوش مصنوعی درواقع فرآیند تنظیم میلیاردها وزن عددی در این شبکههاست تا خطای خروجی به حداقل برسد؛ فرآیندی که به توان پردازشی و هزینههای بسیار زیاد نیاز دارد.
خراسانی در بخش مربوط به مدلهای زبانی بزرگ، نحوه آموزش و عملکرد ابزارهایی مانند ChatGPT، Gemini و Claude را توضیح داد و اضافه کرد: این مدلها معنای واقعی جملات را درک نمیکنند، بلکه با تبدیل متن به «توکن» و استفاده از سازوکار توجه (Attention)، محتملترین کلمه بعدی را پیشبینی میکنند. موفقیت این مدلها نتیجه ترکیب یادگیری عمیق، پردازش زبان طبیعی و حجم عظیمی از دادههای متنی است.
وی همچنین با معرفی معماری ترنسفورمر، آن را نقطه عطفی در پیشرفت هوش مصنوعی دانست و تصریح کرد: این معماری که نخستین بار گوگل آن را معرفی کرد، پایه اصلی مدلهای مولد امروزی محسوب میشود و امکان پردازش مؤثر متنهای طولانی و پیچیده را فراهم کرده است. این مدلها با شروع از نویز تصادفی و اصلاح تدریجی آن، تصویر نهایی را تولید میکنند و در مرحله آموزش، یاد میگیرند که چگونه از تصویری مبهم به نمونهای واضح و قابل تشخیص برسند.
این متخصص هوش مصنوعی در پایان به تحولات اخیر و آینده هوش مصنوعی اشاره کرد و گفت: رقابت شدید شرکتهای بزرگ فناوری عاملی است که دسترسی عمومی و نسبتاً رایگان به این مدلها را ممکن کرده است. این شرایط فرصتی برای توسعه ابزارها، استارتاپها و کاربردهای بومی ایجاد کرده، اما همزمان چالشهای اخلاقی، امنیتی و فلسفی جدیدی نیز بهدنبال دارد. بنابراین، شناخت عمیقتر سازوکار هوش مصنوعی و پرهیز از نگاه صرفاً مصرفی به این فناوری ضرورت دارد.
انتهای پیام