در سال 2017، ساوانا تایس در کنفرانس یادگیری ماشینی NeurIPS در لانگ بیچ، کالیفرنیا شرکت کرد، به این امید که در مورد تکنیک هایی که می تواند در کار دکتری خود در مورد شناسایی الکترون استفاده کند، بیاموزد. در عوض، او با جهان بینی تغییر یافته به خانه ییل بازگشت.

در NeurIPS، او به سخنرانی کیت کرافورد، محقق هوش مصنوعی، گوش داده بود که در مورد سوگیری ها در الگوریتم های یادگیری ماشین بحث می کرد. او به مطالعه جدیدی اشاره کرد که نشان می‌دهد فناوری تشخیص چهره، که از یادگیری ماشینی استفاده می‌کند، جنسیت و تعصب نژادی را در مجموعه داده‌های خود تشخیص می‌دهد: زنان رنگین‌پوست 32 درصد بیشتر از مردان سفیدپوست توسط این فناوری طبقه‌بندی می‌شوند.

این مطالعه، منتشر شده به عنوان یک پایاننامهی کارشناسی ارشد توسط Joy Adowaa Buolamwini، به نقطه عطفی در دنیای یادگیری ماشین تبدیل شده است، و راه هایی را نشان می دهد که الگوریتم های به ظاهر عینی می توانند بر اساس مجموعه داده های ناقص اشتباه کنند. و برای تایلندی‌ها که با یادگیری ماشینی از طریق فیزیک آشنا بودند، این یک لحظه مهم بود.

تیس که اکنون یک محقق پژوهشی در موسسه داده دانشگاه کلمبیا است، می گوید: «من قبلاً حتی در مورد آن نمی دانستم. من نمی‌دانستم اینها مسائل فناوری است، که این چیزها در حال رخ دادن هستند.»

تایس پس از اتمام دکترای خود بر روی مطالعه مفاهیم اخلاقی هوش مصنوعی در علم و جامعه تمرکز کرد. چنین کارهایی اغلب بر روی تأثیرات مستقیم بر روی انسان تمرکز می‌کند، که ممکن است کاملاً جدا از الگوریتم‌هایی باشد که مثلاً برای شناسایی نشانه بوزون هیگز در برخورد ذرات با کوهی از نویز طراحی شده‌اند.

اما این سؤالات با تحقیقات فیزیک نیز در هم تنیده هستند. سوگیری الگوریتمی می تواند بر نتایج فیزیک تأثیر بگذارد، به خصوص زمانی که از روش های یادگیری ماشینی به طور نامناسب استفاده می شود.

و کار انجام شده برای اهداف فیزیک احتمالاً در فیزیک باقی نخواهد ماند. با پیشبرد فناوری یادگیری ماشینی در علم، فیزیکدانان به بهبود آن در زمینه‌های دیگر نیز کمک می‌کنند. تایس می‌گوید: «وقتی در یک زمینه نسبتاً علمی هستید و فکر می‌کنید، «اوه، ما این مدل‌ها را می‌سازیم تا به ما کمک کند تحقیقات فیزیک بهتری انجام دهیم»، این کاملاً از هرگونه پیامدهای اجتماعی جدا است. “اما همه اینها واقعاً بخشی از یک اکوسیستم است.”

به مدل های خود اعتماد کنید

در مدل‌های رایانه‌ای سنتی، هر پارامتری را که برای تصمیم‌گیری باید بداند، به برنامه می‌گوید – برای مثال، اطلاعات سبک‌تر بودن یک پروتون از نوترون می‌تواند به برنامه کمک کند تا بین دو نوع ذره تمایز قائل شود.

از سوی دیگر، الگوریتم‌های یادگیری ماشین به گونه‌ای برنامه‌ریزی شده‌اند که پارامترهای خود را از داده‌هایی که داده می‌شوند یاد بگیرند. یک الگوریتم می‌تواند با میلیون‌ها پارامتر، که هر کدام «فضای فاز» خاص خود را دارند، مجموعه‌ای از تمام تکرارهای ممکن آن پارامتر ارائه کند.

الگوریتم ها با هر فضای فازی به یک شکل رفتار نمی کنند. آنها وزن آنها را با توجه به مفید بودن آنها برای وظیفه ای که الگوریتم در تلاش است انجام دهد، متفاوت است. از آنجایی که این وزن دهی مستقیماً توسط انسان تعیین نمی شود، تصور اینکه تصمیم گیری الگوریتمی می تواند راهی برای حذف تعصبات انسانی باشد، آسان است. اما انسان ها همچنان ورودی خود را به صورت مجموعه داده ای که به الگوریتم آموزشی تغذیه می کنند به سیستم اضافه می کنند.

بولاموینی در پایان نامه خود الگوریتمی را تجزیه و تحلیل کرد که پارامترهای تشخیص چهره را بر اساس مجموعه داده ای ایجاد می کند که عمدتاً از عکس های افراد سفیدپوست، عمدتاً مردان تشکیل شده است. از آنجایی که الگوریتم نمونه‌های متفاوتی از مردان سفیدپوست داشت، توانست یک روبریک خوب برای تمایز بین آنها ارائه دهد. از آنجایی که نمونه های کمتری از افراد از قومیت ها و جنسیت های دیگر وجود داشت، او کار بدتری در تشخیص آنها انجام داد.

فناوری تشخیص چهره را می توان به روش های مختلفی مورد استفاده قرار داد. به عنوان مثال، فناوری تشخیص چهره می تواند برای تأیید هویت شخصی استفاده شود. بسیاری از مردم هر روز از آن برای باز کردن قفل تلفن های هوشمند خود استفاده می کنند. بولاموینی در پایان نامه خود مثال های دیگری از جمله “توسعه تعاملات همدلانه انسان و ماشین، نظارت بر سلامت، و یافتن افراد مفقود یا مجرمان خطرناک” ارائه می دهد.

هنگامی که فناوری تشخیص چهره در این زمینه‌ها استفاده می‌شود، عدم موفقیت آن در عملکرد یکسان برای همه افراد می‌تواند عواقب متعددی داشته باشد، از ناامیدی ناشی از محرومیت از دسترسی به امکانات رفاهی گرفته تا خطر تشخیص اشتباه در یک محیط پزشکی و تهدید به شناسایی اشتباه. و دستگیری تیس می گوید: «مشخص کردن نحوه عملکرد مدل شما در فضای فاز هم یک موضوع علمی و هم اخلاقی است.

کیهان شناس برایان نورد سال هاست که به این موضوع فکر می کند. او در سال 2016 استفاده از یادگیری ماشین را در کار خود آغاز کرد، زمانی که او و همکارانش متوجه شدند که مدل های یادگیری ماشینی می توانند اجرام مشاهده شده توسط تلسکوپ ها را طبقه بندی کنند. نورد به طور خاص به الگوریتم هایی علاقه مند بود که می توانستند عجیب بودن خم شدن نور در اطراف اجرام آسمانی را رمزگشایی کنند، پدیده ای که به عدسی گرانشی معروف است. از آنجایی که چنین مدل هایی در طبقه بندی ویژگی ها بر اساس داده های موجود برتری دارند، می توانند ستاره ها و کهکشان ها را در تصاویر بسیار بهتر از یک انسان شناسایی کنند.

نورد، دانشمند دفتر پروژه و مرکز فیزیک فضایی Fermilab، می‌گوید، اما سایر کاربردهای یادگیری ماشین برای فیزیک بسیار کمتر قابل اعتماد هستند. در جایی که یک برنامه سنتی دارای تعداد محدودی از پارامترها است که فیزیکدانان می توانند به صورت دستی آنها را تغییر دهند تا به نتایج صحیح دست یابند، یک الگوریتم یادگیری ماشین از میلیون ها پارامتر استفاده می کند که اغلب با ویژگی های فیزیکی واقعی مطابقت ندارند و فیزیکدانان نمی توانند آنها را اصلاح کنند. نورد می‌گوید: «هیچ راه محکمی برای تفسیر خطاهای ناشی از یک روش هوش مصنوعی وجود ندارد که بتوانیم آن را از نظر روشی که در مورد آمار در فیزیک فکر می‌کنیم بررسی کنیم. “این هنوز وجود ندارد.”

اگر فیزیکدانان از این مسائل آگاه نباشند، می توانند از مدل ها برای اهدافی فراتر از توانایی های خود استفاده کنند و به طور بالقوه نتایج آنها را تضعیف کنند.

Nord در تلاش است تا قابلیت‌های یادگیری ماشین را برای پشتیبانی از تمام مراحل فرآیند علمی، از شناسایی فرضیه‌های قابل آزمایش و بهبود طراحی تلسکوپ تا شبیه‌سازی داده‌ها، ارتقا دهد. او آینده ای نه چندان دور را متصور است که در آن جامعه فیزیک می تواند پروژه های بزرگ مقیاس را در مدت زمان بسیار کمتری نسبت به دهه هایی که در حال حاضر چنین آزمایش هایی طول می کشد، تصور، طراحی و اجرا کند.

اما نورد همچنین از مشکلات احتمالی توسعه فناوری یادگیری ماشین آگاه است. نورد اشاره می‌کند که الگوریتم تشخیص تصویر که به کیهان‌شناس اجازه می‌دهد خوشه کهکشانی را از سیاه‌چاله تشخیص دهد، همان فناوری است که می‌تواند برای شناسایی چهره در یک جمعیت استفاده شود.

نورد می‌گوید: «اگر از این ابزارها برای انجام علم استفاده می‌کنم و می‌خواهم آنها را اساساً برای انجام علم خود بهتر کنم، به احتمال زیاد در مکان‌های دیگری که آنها کاربرد دارند، آن را بهتر کنم. من اساساً دارم فناوری می‌سازم تا بر خودم نظارت داشته باشم».

مسئولیت ها و فرصت ها

فیزیک در پس یکی از معروف ترین معضلات اخلاقی علمی قرار دارد: ایجاد سلاح های هسته ای. از زمان پروژه منهتن – برنامه تحقیقاتی دولت برای تولید اولین بمب اتمی – دانشمندان درباره میزان مشارکت آنها در علم پشت این سلاح ها به عنوان مسئولیت استفاده از آنها بحث کرده اند.

او در سال 1995 جایزه صلح نوبل را دریافت کرد سخنرانی پذیراییفیزیکدان جوزف روثبلات، که از پروژه منهتن استعفا داد، مستقیماً به حساسیت های اخلاقی دانشمندان متوسل شد. «در زمانه ای که علم نقش قدرتمندی را در زندگی جامعه ایفا می کند، زمانی که سرنوشت همه بشریت ممکن است به نتایج تحقیقات علمی بستگی داشته باشد، همه دانشمندان وظیفه دارند از این نقش آگاهی کامل داشته باشند و بر اساس آن عمل کنند. راثبلات گفت.

وی خاطرنشان کرد که “انجام کار اساسی، فراتر رفتن از مرزهای دانش … شما اغلب این کار را انجام می دهید بدون اینکه زیاد به تأثیر کار خود بر جامعه فکر کنید.”

تایس می گوید که او می بیند که همین الگو در بین فیزیکدانانی که امروز روی هوش مصنوعی کار می کنند تکرار می شود. به ندرت لحظه ای در فرآیند علمی وجود دارد که یک فیزیکدان بتواند برای بررسی کار خود در یک زمینه بزرگتر مکث کند.

تیس می گوید، همانطور که فیزیکدانان به طور فزاینده ای در مورد یادگیری ماشینی در کنار فیزیک یاد می گیرند، آنها نیز باید در معرض چارچوب های اخلاقی قرار گیرند. این می تواند در کنفرانس ها و سمینارها و در مواد آموزشی آنلاین اتفاق بیفتد.

تابستان گذشته، کازوهیرو ترائو، دانشمند آزمایشگاه ملی شتاب دهنده SLAC، پنجاه و یکمین موسسه تابستانی SLAC را سازماندهی کرد که حول موضوع “هوش مصنوعی در فیزیک بنیادی” متمرکز بود. او سخنرانان را در موضوعاتی مانند بینایی کامپیوتری، تشخیص ناهنجاری و تقارن دعوت کرد. او همچنین از تایلندی ها خواست به اخلاق روی آورند.

Terao می‌گوید: «برای ما مهم است که نه فقط تبلیغات پیرامون هوش مصنوعی، بلکه یاد بگیریم که چه کارهایی می‌تواند انجام دهد، چه چیزهایی می‌تواند به سمت آن سوگیری کند.

Terao می‌گوید تحقیقات در مورد اخلاق هوش مصنوعی می‌تواند به فیزیکدانان بیاموزد که به روش‌هایی فکر کنند که برای فیزیک نیز مفید است. به عنوان مثال، یادگیری بیشتر در مورد سوگیری ها در سیستم های یادگیری ماشینی می تواند شک و تردید علمی سالم را در مورد اینکه چنین سیستم هایی واقعاً می توانند انجام دهند ایجاد کند.

تحقیقات اخلاقی همچنین فرصت هایی را برای فیزیکدانان فراهم می کند تا استفاده از یادگیری ماشین را در جامعه به طور کلی بهبود بخشند. نورد می گوید فیزیکدانان می توانند از تخصص فنی خود برای آموزش شهروندان و سیاست گذاران در مورد فناوری و کاربردها و پیامدهای آن استفاده کنند.

تیس می گوید و فیزیکدانان یک فرصت منحصر به فرد برای بهبود خود علم یادگیری ماشینی دارند. این به این دلیل است که داده‌های فیزیکی، برخلاف داده‌های تشخیص چهره، به شدت کنترل می‌شوند – و تعداد زیادی از آن‌ها وجود دارد. فیزیکدانان می دانند که چه نوع سوگیری ها در آزمایش هایشان وجود دارد و می دانند چگونه آنها را کمیت کنند. تیس می گوید که این باعث می شود فیزیک به عنوان یک میدان به یک “جعبه ماسه ای” عالی برای یادگیری ساخت مدل هایی که از تعصبات جلوگیری کنند، تبدیل می کند.

اما این تنها در صورتی می تواند اتفاق بیفتد که فیزیکدانان اخلاق را در تفکر خود بگنجانند. تایس می گوید: «ما باید در مورد این سؤالات فکر کنیم. “ما نمی توانیم از گفتگو فرار کنیم.”



Source link