اختراع عجیب هوش مصنوعی گوگل: شبیهسازی بخش ناشناخته مغز!
هوش مصنوعی گوگل بخشی خیالی از مغز را اختراع کرد.

در سال ۲۰۲۴، گوگل نسخهای جدید از ابزارهای هوش مصنوعی خود به نام «مد-جمینای» (Med-Gemini) را معرفی کرد. همانطور که از نامش پیداست، این نسخهای از نرمافزار هوش مصنوعی «جمینای» بود که برای کاربردهای پزشکی طراحی شده بود.
در معرفی این مدلهای جدید، گرگ کورادو و ژوئل بارال از گوگل نوشتند که این ابزار «قابلیتهای چندرسانهای قدرتمندی را به نمایش میگذارد که میتوانند در فرآیندهای کاری پزشکان، پژوهشگران و بیماران مؤثر باشند.»
تا اینجای کار، خبر خوبی به نظر میرسد. اما خبر بد چیست؟ طبق گزارشی از «هایدن فیلد» در وبسایت The Verge، یکی از مقالههای تحقیقاتی اولیه که گوگل برای نمایش تواناییهای Med-Gemini منتشر کرد، به بخشی از مغز با نام «Basilar Ganglia» اشاره کرده بود—بخشی که اساساً وجود خارجی ندارد.
شفقنا نوشت، همانطور که فیلد توضیح میدهد، این نام ساختگی، ترکیبی اشتباه از دو بخش واقعی اما کاملاً متفاوت مغز است: «Basilar Ganglia» (هستههای قاعدهای مغز) و «Basilar Artery» (شریان بازیلار یا سرخرگ قاعدهای).
یک متخصص مغز و اعصاب به نام دکتر برایان مور به The Verge گفت که او این اشتباه را شناسایی کرده و گوگل را از آن باخبر کرده است. گوگل در واکنش، متن اعلامیه اصلی خود را بیسر و صدا و بدون هیچ اطلاعرسانی عمومی، ویرایش کرد.
با این حال، گوگل بعداً در وبلاگ خود توضیحی اضافه کرد و نوشت: «توجه داشته باشید که ‘Basilar’ اغلب اشتباه بهجای ‘Basal’ نوشته میشود و Med-Gemini این خطا را از دادههای آموزشی خود یاد گرفته است، گرچه معنای کلی گزارش تغییری نکرده است.» (با این حال، به گفته فیلد، مقاله تحقیقاتی گوگل همچنان این خطا را بدون هیچ اصلاح یا توضیحی در خود دارد.)
پژوهشگران خواستار نظارت و مقررات بیشتر بر هوش مصنوعی پزشکی شدهاند
اهمیت این کشف بستگی زیادی به نحوه طبقهبندی این خطا دارد. اگر این اشتباه صرفاً یک تایپو یا خطای نوشتاری باشد—چنانکه گوگل ادعا میکند—مسئله چندان نگرانکننده نیست. اما اگر این اشتباه ناشی از «توهم زایی» مدل هوش مصنوعی باشد، با مشکلی جدیتر روبهرو هستیم؛ مسئلهای که یکی از کارشناسان مصاحبهشونده در گزارش The Verge نیز آن را تأیید کرده است.
گزارش The Verge حاکی از آن است که هوش مصنوعی پزشکی نیز، مانند دیگر حوزههای مبتنی بر هوش مصنوعی، مصون از «توهم زایی» نیست—پدیدهای که در آن مدلهای زبانی، اطلاعات نادرست اما باورپذیر تولید میکنند.
با وجود این نگرانیها، به نظر میرسد که هوش مصنوعی در حال کسب جایگاه قابلاعتمادی بهعنوان منبع اطلاعات پزشکی است. یک نظرسنجی جدید از «مرکز سیاستگذاری عمومی اننبرگ» نشان داد که ۶۳ درصد پاسخدهندگان، اطلاعات پزشکی تولیدشده توسط هوش مصنوعی را «تا حدی قابلاعتماد» یا «بسیار قابلاعتماد» میدانند.
نظر شما