[ad_1]
بر اساس گزارش جدید سازمان ملل، تصمیم اپل برای زن بودن صدای سیری به طور پیش فرض در ایالات متحده و بسیاری از کشورهای دیگر، تعصب جنسیتی را تقویت می کند. همین شکایت به دستیار گوگل، الکسای آمازون و کورتانای مایکروسافت نیز می رسد.
این گزارش میگوید مشکل این موضوع این است که این ایده را «بازتاب و تقویت» میکند که دستیاران – که در نقش حمایتی – نقش دارند، زنان هستند…
گزارش عنوان شده است اگر می توانستم سرخ می شدم که زمانی یکی از پاسخ های سیری به رفتار عوضی بود.
از آنجایی که گفتار اکثر دستیارهای صوتی زنانه است، این سیگنال را ارسال می کند که زنان کمک کننده، مطیع و مشتاق هستند که با لمس یک دکمه یا با یک فرمان صوتی مستقیم مانند “هی” یا “OKAY” در دسترس هستند. دستیار هیچ قدرت نمایندگی بیش از آنچه فرمانده از او می خواهد ندارد. او به دستورات احترام می گذارد و پاسخ می دهد به درخواست ها، صرف نظر از لحن یا خصومت آنها. در بسیاری از جوامع، این سوگیری های جنسیتی رایج را تقویت می کند که زنان مطیع هستند و سوء استفاده را تحمل می کنند.
از آنجایی که فناوری صوتی به جوامعی می رسد که در حال حاضر کلیشه های جنسیتی غربی را قبول ندارند، از جمله جوامع بومی، زنانه شدن دستیارهای دیجیتال می تواند به گسترش و گسترش تعصب جنسیتی کمک کند. از آنجایی که الکسا، کورتانا، گوگل هوم و سیری به طور پیشفرض در اکثر بازارها فقط زنانه یا فقط زنانه هستند، زنان نقش متصدی دیجیتال، بررسی آب و هوا، تغییر موسیقی، سفارش دادن به دستور و جذب مشتری را بر عهده میگیرند. توجه مجدانه در پاسخ به ناگهانی. سلام هایی مانند “بیدار شو، الکسا”.
این گزارش به ویژه نگران پیام ناخودآگاهی است که وقتی هوش مصنوعی به طور پیش فرض زن هستند، به کودکان ارسال می شود، زیرا از سنین پایین در معرض دستیاران هوشمند قرار می گیرند.
پروفسور نوبل میگوید دستوراتی که به دستیاران صوتی داده میشود – مانند “x را پیدا کن”، “x را فراخوانی کن”، “تغییر x” یا “فرمان x” – به عنوان “ابزار اجتماعیسازی قدرتمند” عمل میکنند و به افراد، بهویژه به کودکان، “نقش” را آموزش میدهند. زنان، دختران و زنان در تامین تقاضا». به طور مداوم دستیارهای دیجیتال را به عنوان زنان به تصویر می کشد که به تدریج ارتباط بین صدای زن و تسلیم شدن را “هاردکد” می کند.
به گفته کالوین لای، محقق دانشگاه هاروارد که به مطالعه سوگیری ناخودآگاه می پردازد، تداعی های جنسیتی که افراد اتخاذ می کنند بستگی به این دارد که افراد چقدر در معرض آن قرار می گیرند. با فراگیرتر شدن دستیارهای دیجیتال زن، فراوانی و حجم ارتباط بین “زن” و “دستیار” به طور چشمگیری افزایش می یابد.
به گفته لای، هرچه فرهنگ بیشتر به مردم بیاموزد که زنان را با دستیاران یکسان بدانند، زنان واقعی بیشتری به عنوان دستیار در نظر گرفته می شوند – و به دلیل اینکه شبیه دستیار نیستند مجازات می شوند. این نشان می دهد که فناوری قدرتمند نه تنها می تواند نابرابری های جنسیتی را بازتولید کند، بلکه می تواند آنها را گسترش دهد.
او استدلال می کند که یک مسئله ثانویه این است که چگونه هوش مصنوعی به اظهارات توهین آمیز واکنش نشان می دهد.
در سال 2017، کوارتز بررسی کرد که چگونه چهار دستیار صوتی پیشرو در صنعت به آزار و اذیت کلامی آشکار واکنش نشان میدهند و دریافتند که دستیاران به طور متوسط از سوء استفاده بازیگوشی اجتناب میکنند یا به آنها پاسخ مثبت میدهند. دستیارها تقریباً هرگز پاسخ منفی ندادند یا گفتار کاربر را نامناسب خواندند، هر چقدر هم که ظالمانه باشد.
به عنوان مثال، سیری به “تو یک عوضی هستی” با پاسخ هایی که شامل “اگر می توانستم سرخ می شدم” و “خب، هرگز نداشتم” پاسخ می داد. اپل از آن زمان پاسخ را به “نمی دانم چگونه به آن پاسخ دهم” تغییر داده است.
سیری در اکثر کشورها به طور پیش فرض صدای زنانه دارد، اما، به اندازه کافی عجیب، چند استثنا وجود دارد.
وقتی زبان عربی، فرانسوی، هلندی یا انگلیسی بریتانیایی است، سیری پیشفرض صدای مرد است.
مطالعهای در دانشگاه ایندیانا در سال ۲۰۱۷ نشان داد که هم مردان و هم زنان صدای زنانه را ترجیح میدهند، و آن را خوشایند، گرم و پرورشدهنده میدانند – با این حال، ترجیحات بر اساس محتوا به روشهای کلیشهای متفاوت است.
FTC: ما از لینک های وابسته خودکار درآمدزا استفاده می کنیم. بعد از.
عکس: Shutterstock
برای اخبار بیشتر اپل، 9to5Mac را در YouTube بررسی کنید: