سازمان ملل می‌گوید که داشتن سیری و سایر هوش مصنوعی‌های زن به‌طور پیش‌فرض جنسیتی است

[ad_1]

بر اساس گزارش جدید سازمان ملل، تصمیم اپل برای زن بودن صدای سیری به طور پیش فرض در ایالات متحده و بسیاری از کشورهای دیگر، تعصب جنسیتی را تقویت می کند. همین شکایت به دستیار گوگل، الکسای آمازون و کورتانای مایکروسافت نیز می رسد.

این گزارش می‌گوید مشکل این موضوع این است که این ایده را «بازتاب و تقویت» می‌کند که دستیاران – که در نقش حمایتی – نقش دارند، زنان هستند…

گزارش عنوان شده است اگر می توانستم سرخ می شدم که زمانی یکی از پاسخ های سیری به رفتار عوضی بود.

از آنجایی که گفتار اکثر دستیارهای صوتی زنانه است، این سیگنال را ارسال می کند که زنان کمک کننده، مطیع و مشتاق هستند که با لمس یک دکمه یا با یک فرمان صوتی مستقیم مانند “هی” یا “OKAY” در دسترس هستند. دستیار هیچ قدرت نمایندگی بیش از آنچه فرمانده از او می خواهد ندارد. او به دستورات احترام می گذارد و پاسخ می دهد به درخواست ها، صرف نظر از لحن یا خصومت آنها. در بسیاری از جوامع، این سوگیری های جنسیتی رایج را تقویت می کند که زنان مطیع هستند و سوء استفاده را تحمل می کنند.

از آنجایی که فناوری صوتی به جوامعی می رسد که در حال حاضر کلیشه های جنسیتی غربی را قبول ندارند، از جمله جوامع بومی، زنانه شدن دستیارهای دیجیتال می تواند به گسترش و گسترش تعصب جنسیتی کمک کند. از آنجایی که الکسا، کورتانا، گوگل هوم و سیری به طور پیش‌فرض در اکثر بازارها فقط زنانه یا فقط زنانه هستند، زنان نقش متصدی دیجیتال، بررسی آب و هوا، تغییر موسیقی، سفارش دادن به دستور و جذب مشتری را بر عهده می‌گیرند. توجه مجدانه در پاسخ به ناگهانی. سلام هایی مانند “بیدار شو، الکسا”.

این گزارش به ویژه نگران پیام ناخودآگاهی است که وقتی هوش مصنوعی به طور پیش فرض زن هستند، به کودکان ارسال می شود، زیرا از سنین پایین در معرض دستیاران هوشمند قرار می گیرند.

پروفسور نوبل می‌گوید دستوراتی که به دستیاران صوتی داده می‌شود – مانند “x را پیدا کن”، “x را فراخوانی کن”، “تغییر x” یا “فرمان x” – به عنوان “ابزار اجتماعی‌سازی قدرتمند” عمل می‌کنند و به افراد، به‌ویژه به کودکان، “نقش” را آموزش می‌دهند. زنان، دختران و زنان در تامین تقاضا». به طور مداوم دستیارهای دیجیتال را به عنوان زنان به تصویر می کشد که به تدریج ارتباط بین صدای زن و تسلیم شدن را “هاردکد” می کند.

به گفته کالوین لای، محقق دانشگاه هاروارد که به مطالعه سوگیری ناخودآگاه می پردازد، تداعی های جنسیتی که افراد اتخاذ می کنند بستگی به این دارد که افراد چقدر در معرض آن قرار می گیرند. با فراگیرتر شدن دستیارهای دیجیتال زن، فراوانی و حجم ارتباط بین “زن” و “دستیار” به طور چشمگیری افزایش می یابد.

به گفته لای، هرچه فرهنگ بیشتر به مردم بیاموزد که زنان را با دستیاران یکسان بدانند، زنان واقعی بیشتری به عنوان دستیار در نظر گرفته می شوند – و به دلیل اینکه شبیه دستیار نیستند مجازات می شوند. این نشان می دهد که فناوری قدرتمند نه تنها می تواند نابرابری های جنسیتی را بازتولید کند، بلکه می تواند آنها را گسترش دهد.

او استدلال می کند که یک مسئله ثانویه این است که چگونه هوش مصنوعی به اظهارات توهین آمیز واکنش نشان می دهد.

در سال 2017، کوارتز بررسی کرد که چگونه چهار دستیار صوتی پیشرو در صنعت به آزار و اذیت کلامی آشکار واکنش نشان می‌دهند و دریافتند که دستیاران به طور متوسط ​​از سوء استفاده بازیگوشی اجتناب می‌کنند یا به آنها پاسخ مثبت می‌دهند. دستیارها تقریباً هرگز پاسخ منفی ندادند یا گفتار کاربر را نامناسب خواندند، هر چقدر هم که ظالمانه باشد.

به عنوان مثال، سیری به “تو یک عوضی هستی” با پاسخ هایی که شامل “اگر می توانستم سرخ می شدم” و “خب، هرگز نداشتم” پاسخ می داد. اپل از آن زمان پاسخ را به “نمی دانم چگونه به آن پاسخ دهم” تغییر داده است.

سیری در اکثر کشورها به طور پیش فرض صدای زنانه دارد، اما، به اندازه کافی عجیب، چند استثنا وجود دارد.

وقتی زبان عربی، فرانسوی، هلندی یا انگلیسی بریتانیایی است، سیری پیش‌فرض صدای مرد است.

مطالعه‌ای در دانشگاه ایندیانا در سال ۲۰۱۷ نشان داد که هم مردان و هم زنان صدای زنانه را ترجیح می‌دهند، و آن را خوشایند، گرم و پرورش‌دهنده می‌دانند – با این حال، ترجیحات بر اساس محتوا به روش‌های کلیشه‌ای متفاوت است.

FTC: ما از لینک های وابسته خودکار درآمدزا استفاده می کنیم. بعد از.

فروش روز یادبود HP

عکس: Shutterstock


برای اخبار بیشتر اپل، 9to5Mac را در YouTube بررسی کنید:

[ad_2]

Source link

بخش سیری 9to5mac فارسی