در سال 2017، ساوانا تایس در کنفرانس یادگیری ماشینی NeurIPS در لانگ بیچ، کالیفرنیا شرکت کرد، به این امید که در مورد تکنیک هایی که می تواند در کار دکتری خود در مورد شناسایی الکترون استفاده کند، بیاموزد. در عوض، او با جهان بینی تغییر یافته به خانه ییل بازگشت.
در NeurIPS، او به سخنرانی کیت کرافورد، محقق هوش مصنوعی، گوش داده بود که در مورد سوگیری ها در الگوریتم های یادگیری ماشین بحث می کرد. او به مطالعه جدیدی اشاره کرد که نشان میدهد فناوری تشخیص چهره، که از یادگیری ماشینی استفاده میکند، جنسیت و تعصب نژادی را در مجموعه دادههای خود تشخیص میدهد: زنان رنگینپوست 32 درصد بیشتر از مردان سفیدپوست توسط این فناوری طبقهبندی میشوند.
این مطالعه، منتشر شده به عنوان یک پایاننامهی کارشناسی ارشد توسط Joy Adowaa Buolamwini، به نقطه عطفی در دنیای یادگیری ماشین تبدیل شده است، و راه هایی را نشان می دهد که الگوریتم های به ظاهر عینی می توانند بر اساس مجموعه داده های ناقص اشتباه کنند. و برای تایلندیها که با یادگیری ماشینی از طریق فیزیک آشنا بودند، این یک لحظه مهم بود.
تیس که اکنون یک محقق پژوهشی در موسسه داده دانشگاه کلمبیا است، می گوید: «من قبلاً حتی در مورد آن نمی دانستم. من نمیدانستم اینها مسائل فناوری است، که این چیزها در حال رخ دادن هستند.»
تایس پس از اتمام دکترای خود بر روی مطالعه مفاهیم اخلاقی هوش مصنوعی در علم و جامعه تمرکز کرد. چنین کارهایی اغلب بر روی تأثیرات مستقیم بر روی انسان تمرکز میکند، که ممکن است کاملاً جدا از الگوریتمهایی باشد که مثلاً برای شناسایی نشانه بوزون هیگز در برخورد ذرات با کوهی از نویز طراحی شدهاند.
اما این سؤالات با تحقیقات فیزیک نیز در هم تنیده هستند. سوگیری الگوریتمی می تواند بر نتایج فیزیک تأثیر بگذارد، به خصوص زمانی که از روش های یادگیری ماشینی به طور نامناسب استفاده می شود.
و کار انجام شده برای اهداف فیزیک احتمالاً در فیزیک باقی نخواهد ماند. با پیشبرد فناوری یادگیری ماشینی در علم، فیزیکدانان به بهبود آن در زمینههای دیگر نیز کمک میکنند. تایس میگوید: «وقتی در یک زمینه نسبتاً علمی هستید و فکر میکنید، «اوه، ما این مدلها را میسازیم تا به ما کمک کند تحقیقات فیزیک بهتری انجام دهیم»، این کاملاً از هرگونه پیامدهای اجتماعی جدا است. “اما همه اینها واقعاً بخشی از یک اکوسیستم است.”
به مدل های خود اعتماد کنید
در مدلهای رایانهای سنتی، هر پارامتری را که برای تصمیمگیری باید بداند، به برنامه میگوید – برای مثال، اطلاعات سبکتر بودن یک پروتون از نوترون میتواند به برنامه کمک کند تا بین دو نوع ذره تمایز قائل شود.
از سوی دیگر، الگوریتمهای یادگیری ماشین به گونهای برنامهریزی شدهاند که پارامترهای خود را از دادههایی که داده میشوند یاد بگیرند. یک الگوریتم میتواند با میلیونها پارامتر، که هر کدام «فضای فاز» خاص خود را دارند، مجموعهای از تمام تکرارهای ممکن آن پارامتر ارائه کند.
الگوریتم ها با هر فضای فازی به یک شکل رفتار نمی کنند. آنها وزن آنها را با توجه به مفید بودن آنها برای وظیفه ای که الگوریتم در تلاش است انجام دهد، متفاوت است. از آنجایی که این وزن دهی مستقیماً توسط انسان تعیین نمی شود، تصور اینکه تصمیم گیری الگوریتمی می تواند راهی برای حذف تعصبات انسانی باشد، آسان است. اما انسان ها همچنان ورودی خود را به صورت مجموعه داده ای که به الگوریتم آموزشی تغذیه می کنند به سیستم اضافه می کنند.
بولاموینی در پایان نامه خود الگوریتمی را تجزیه و تحلیل کرد که پارامترهای تشخیص چهره را بر اساس مجموعه داده ای ایجاد می کند که عمدتاً از عکس های افراد سفیدپوست، عمدتاً مردان تشکیل شده است. از آنجایی که الگوریتم نمونههای متفاوتی از مردان سفیدپوست داشت، توانست یک روبریک خوب برای تمایز بین آنها ارائه دهد. از آنجایی که نمونه های کمتری از افراد از قومیت ها و جنسیت های دیگر وجود داشت، او کار بدتری در تشخیص آنها انجام داد.
فناوری تشخیص چهره را می توان به روش های مختلفی مورد استفاده قرار داد. به عنوان مثال، فناوری تشخیص چهره می تواند برای تأیید هویت شخصی استفاده شود. بسیاری از مردم هر روز از آن برای باز کردن قفل تلفن های هوشمند خود استفاده می کنند. بولاموینی در پایان نامه خود مثال های دیگری از جمله “توسعه تعاملات همدلانه انسان و ماشین، نظارت بر سلامت، و یافتن افراد مفقود یا مجرمان خطرناک” ارائه می دهد.
هنگامی که فناوری تشخیص چهره در این زمینهها استفاده میشود، عدم موفقیت آن در عملکرد یکسان برای همه افراد میتواند عواقب متعددی داشته باشد، از ناامیدی ناشی از محرومیت از دسترسی به امکانات رفاهی گرفته تا خطر تشخیص اشتباه در یک محیط پزشکی و تهدید به شناسایی اشتباه. و دستگیری تیس می گوید: «مشخص کردن نحوه عملکرد مدل شما در فضای فاز هم یک موضوع علمی و هم اخلاقی است.
کیهان شناس برایان نورد سال هاست که به این موضوع فکر می کند. او در سال 2016 استفاده از یادگیری ماشین را در کار خود آغاز کرد، زمانی که او و همکارانش متوجه شدند که مدل های یادگیری ماشینی می توانند اجرام مشاهده شده توسط تلسکوپ ها را طبقه بندی کنند. نورد به طور خاص به الگوریتم هایی علاقه مند بود که می توانستند عجیب بودن خم شدن نور در اطراف اجرام آسمانی را رمزگشایی کنند، پدیده ای که به عدسی گرانشی معروف است. از آنجایی که چنین مدل هایی در طبقه بندی ویژگی ها بر اساس داده های موجود برتری دارند، می توانند ستاره ها و کهکشان ها را در تصاویر بسیار بهتر از یک انسان شناسایی کنند.
نورد، دانشمند دفتر پروژه و مرکز فیزیک فضایی Fermilab، میگوید، اما سایر کاربردهای یادگیری ماشین برای فیزیک بسیار کمتر قابل اعتماد هستند. در جایی که یک برنامه سنتی دارای تعداد محدودی از پارامترها است که فیزیکدانان می توانند به صورت دستی آنها را تغییر دهند تا به نتایج صحیح دست یابند، یک الگوریتم یادگیری ماشین از میلیون ها پارامتر استفاده می کند که اغلب با ویژگی های فیزیکی واقعی مطابقت ندارند و فیزیکدانان نمی توانند آنها را اصلاح کنند. نورد میگوید: «هیچ راه محکمی برای تفسیر خطاهای ناشی از یک روش هوش مصنوعی وجود ندارد که بتوانیم آن را از نظر روشی که در مورد آمار در فیزیک فکر میکنیم بررسی کنیم. “این هنوز وجود ندارد.”
اگر فیزیکدانان از این مسائل آگاه نباشند، می توانند از مدل ها برای اهدافی فراتر از توانایی های خود استفاده کنند و به طور بالقوه نتایج آنها را تضعیف کنند.
Nord در تلاش است تا قابلیتهای یادگیری ماشین را برای پشتیبانی از تمام مراحل فرآیند علمی، از شناسایی فرضیههای قابل آزمایش و بهبود طراحی تلسکوپ تا شبیهسازی دادهها، ارتقا دهد. او آینده ای نه چندان دور را متصور است که در آن جامعه فیزیک می تواند پروژه های بزرگ مقیاس را در مدت زمان بسیار کمتری نسبت به دهه هایی که در حال حاضر چنین آزمایش هایی طول می کشد، تصور، طراحی و اجرا کند.
اما نورد همچنین از مشکلات احتمالی توسعه فناوری یادگیری ماشین آگاه است. نورد اشاره میکند که الگوریتم تشخیص تصویر که به کیهانشناس اجازه میدهد خوشه کهکشانی را از سیاهچاله تشخیص دهد، همان فناوری است که میتواند برای شناسایی چهره در یک جمعیت استفاده شود.
نورد میگوید: «اگر از این ابزارها برای انجام علم استفاده میکنم و میخواهم آنها را اساساً برای انجام علم خود بهتر کنم، به احتمال زیاد در مکانهای دیگری که آنها کاربرد دارند، آن را بهتر کنم. من اساساً دارم فناوری میسازم تا بر خودم نظارت داشته باشم».
مسئولیت ها و فرصت ها
فیزیک در پس یکی از معروف ترین معضلات اخلاقی علمی قرار دارد: ایجاد سلاح های هسته ای. از زمان پروژه منهتن – برنامه تحقیقاتی دولت برای تولید اولین بمب اتمی – دانشمندان درباره میزان مشارکت آنها در علم پشت این سلاح ها به عنوان مسئولیت استفاده از آنها بحث کرده اند.
او در سال 1995 جایزه صلح نوبل را دریافت کرد سخنرانی پذیراییفیزیکدان جوزف روثبلات، که از پروژه منهتن استعفا داد، مستقیماً به حساسیت های اخلاقی دانشمندان متوسل شد. «در زمانه ای که علم نقش قدرتمندی را در زندگی جامعه ایفا می کند، زمانی که سرنوشت همه بشریت ممکن است به نتایج تحقیقات علمی بستگی داشته باشد، همه دانشمندان وظیفه دارند از این نقش آگاهی کامل داشته باشند و بر اساس آن عمل کنند. راثبلات گفت.
وی خاطرنشان کرد که “انجام کار اساسی، فراتر رفتن از مرزهای دانش … شما اغلب این کار را انجام می دهید بدون اینکه زیاد به تأثیر کار خود بر جامعه فکر کنید.”
تایس می گوید که او می بیند که همین الگو در بین فیزیکدانانی که امروز روی هوش مصنوعی کار می کنند تکرار می شود. به ندرت لحظه ای در فرآیند علمی وجود دارد که یک فیزیکدان بتواند برای بررسی کار خود در یک زمینه بزرگتر مکث کند.
تیس می گوید، همانطور که فیزیکدانان به طور فزاینده ای در مورد یادگیری ماشینی در کنار فیزیک یاد می گیرند، آنها نیز باید در معرض چارچوب های اخلاقی قرار گیرند. این می تواند در کنفرانس ها و سمینارها و در مواد آموزشی آنلاین اتفاق بیفتد.
تابستان گذشته، کازوهیرو ترائو، دانشمند آزمایشگاه ملی شتاب دهنده SLAC، پنجاه و یکمین موسسه تابستانی SLAC را سازماندهی کرد که حول موضوع “هوش مصنوعی در فیزیک بنیادی” متمرکز بود. او سخنرانان را در موضوعاتی مانند بینایی کامپیوتری، تشخیص ناهنجاری و تقارن دعوت کرد. او همچنین از تایلندی ها خواست به اخلاق روی آورند.
Terao میگوید: «برای ما مهم است که نه فقط تبلیغات پیرامون هوش مصنوعی، بلکه یاد بگیریم که چه کارهایی میتواند انجام دهد، چه چیزهایی میتواند به سمت آن سوگیری کند.
Terao میگوید تحقیقات در مورد اخلاق هوش مصنوعی میتواند به فیزیکدانان بیاموزد که به روشهایی فکر کنند که برای فیزیک نیز مفید است. به عنوان مثال، یادگیری بیشتر در مورد سوگیری ها در سیستم های یادگیری ماشینی می تواند شک و تردید علمی سالم را در مورد اینکه چنین سیستم هایی واقعاً می توانند انجام دهند ایجاد کند.
تحقیقات اخلاقی همچنین فرصت هایی را برای فیزیکدانان فراهم می کند تا استفاده از یادگیری ماشین را در جامعه به طور کلی بهبود بخشند. نورد می گوید فیزیکدانان می توانند از تخصص فنی خود برای آموزش شهروندان و سیاست گذاران در مورد فناوری و کاربردها و پیامدهای آن استفاده کنند.
تیس می گوید و فیزیکدانان یک فرصت منحصر به فرد برای بهبود خود علم یادگیری ماشینی دارند. این به این دلیل است که دادههای فیزیکی، برخلاف دادههای تشخیص چهره، به شدت کنترل میشوند – و تعداد زیادی از آنها وجود دارد. فیزیکدانان می دانند که چه نوع سوگیری ها در آزمایش هایشان وجود دارد و می دانند چگونه آنها را کمیت کنند. تیس می گوید که این باعث می شود فیزیک به عنوان یک میدان به یک “جعبه ماسه ای” عالی برای یادگیری ساخت مدل هایی که از تعصبات جلوگیری کنند، تبدیل می کند.
اما این تنها در صورتی می تواند اتفاق بیفتد که فیزیکدانان اخلاق را در تفکر خود بگنجانند. تایس می گوید: «ما باید در مورد این سؤالات فکر کنیم. “ما نمی توانیم از گفتگو فرار کنیم.”