اختراع عجیب هوش مصنوعی گوگل: شبیه‌سازی بخش ناشناخته مغز!

هوش مصنوعی گوگل بخشی خیالی از مغز را اختراع کرد.

اختراع عجیب هوش مصنوعی گوگل: شبیه‌سازی بخش ناشناخته مغز!
صفحه اقتصاد -

در سال ۲۰۲۴، گوگل نسخه‌ای جدید از ابزارهای هوش مصنوعی خود به نام «مد-جمینای» (Med-Gemini) را معرفی کرد. همان‌طور که از نامش پیداست، این نسخه‌ای از نرم‌افزار هوش مصنوعی «جمینای» بود که برای کاربردهای پزشکی طراحی شده بود.

در معرفی این مدل‌های جدید، گرگ کورادو و ژوئل بارال از گوگل نوشتند که این ابزار «قابلیت‌های چندرسانه‌ای قدرتمندی را به نمایش می‌گذارد که می‌توانند در فرآیندهای کاری پزشکان، پژوهشگران و بیماران مؤثر باشند.»

تا این‌جای کار، خبر خوبی به نظر می‌رسد. اما خبر بد چیست؟ طبق گزارشی از «هایدن فیلد» در وب‌سایت The Verge، یکی از مقاله‌های تحقیقاتی اولیه که گوگل برای نمایش توانایی‌های Med-Gemini منتشر کرد، به بخشی از مغز با نام «Basilar Ganglia» اشاره کرده بود—بخشی که اساساً وجود خارجی ندارد.

شفقنا نوشت، همان‌طور که فیلد توضیح می‌دهد، این نام ساختگی، ترکیبی اشتباه از دو بخش واقعی اما کاملاً متفاوت مغز است: «Basilar Ganglia» (هسته‌های قاعده‌ای مغز) و «Basilar Artery» (شریان بازیلار یا سرخرگ قاعده‌ای).

یک متخصص مغز و اعصاب به نام دکتر برایان مور به The Verge گفت که او این اشتباه را شناسایی کرده و گوگل را از آن باخبر کرده است. گوگل در واکنش، متن اعلامیه اصلی خود را بی‌سر و صدا و بدون هیچ اطلاع‌رسانی عمومی، ویرایش کرد.

با این حال، گوگل بعداً در وبلاگ خود توضیحی اضافه کرد و نوشت: «توجه داشته باشید که ‘Basilar’ اغلب اشتباه به‌جای ‘Basal’ نوشته می‌شود و Med-Gemini این خطا را از داده‌های آموزشی خود یاد گرفته است، گرچه معنای کلی گزارش تغییری نکرده است.» (با این حال، به گفته فیلد، مقاله تحقیقاتی گوگل همچنان این خطا را بدون هیچ اصلاح یا توضیحی در خود دارد.)

پژوهشگران خواستار نظارت و مقررات بیشتر بر هوش مصنوعی پزشکی شده‌اند

اهمیت این کشف بستگی زیادی به نحوه طبقه‌بندی این خطا دارد. اگر این اشتباه صرفاً یک تایپو یا خطای نوشتاری باشد—چنان‌که گوگل ادعا می‌کند—مسئله چندان نگران‌کننده نیست. اما اگر این اشتباه ناشی از «توهم زایی» مدل هوش مصنوعی باشد، با مشکلی جدی‌تر روبه‌رو هستیم؛ مسئله‌ای که یکی از کارشناسان مصاحبه‌شونده در گزارش The Verge نیز آن را تأیید کرده است.

گزارش The Verge حاکی از آن است که هوش مصنوعی پزشکی نیز، مانند دیگر حوزه‌های مبتنی بر هوش مصنوعی، مصون از «توهم زایی» نیست—پدیده‌ای که در آن مدل‌های زبانی، اطلاعات نادرست اما باورپذیر تولید می‌کنند.

با وجود این نگرانی‌ها، به نظر می‌رسد که هوش مصنوعی در حال کسب جایگاه قابل‌اعتمادی به‌عنوان منبع اطلاعات پزشکی است. یک نظرسنجی جدید از «مرکز سیاست‌گذاری عمومی اننبرگ» نشان داد که ۶۳ درصد پاسخ‌دهندگان، اطلاعات پزشکی تولیدشده توسط هوش مصنوعی را «تا حدی قابل‌اعتماد» یا «بسیار قابل‌اعتماد» می‌دانند.

پیشنهاد سردبیر

آیا این خبر مفید بود؟

نتیجه بر اساس رای موافق و رای مخالف

ما را در شبکه های اجتماعی دنبال کنید :

نظر شما

اخبار ویژه

آخرین اخبار