Як уважний підхід до штучного інтелекту зменшує кількість упереджених наборів даних

Упереджені набори даних та етичний AI

Для ефективних рішень на основі штучного інтелекту потрібні набори даних. І створення цих наборів даних чревате проблемою неявного упередження на систематичному рівні. Усі люди страждають від упереджень (як свідомих, так і несвідомих). Упередження можуть мати будь-яку кількість форм: географічну, мовну, соціально-економічну, сексистську та расистську. І ці систематичні упередження вписуються в дані, що може призвести до створення продуктів штучного інтелекту, які продовжують і збільшують упередженість. Організаціям потрібен уважний підхід для пом'якшення упередженості, що проникає у набори даних.

Приклади, які ілюструють проблему упередженості

Одним з помітних прикладів упередженості цього набору даних, що викликало багато негативної преси в той час, було рішення для читання резюме, яке віддавало перевагу чоловікам-кандидатам, а не жінкам. Це пояснюється тим, що набори даних інструменту набору персоналу були розроблені з використанням резюме за останнє десятиліття, коли більшість претендентів були чоловіками. Дані були необ'єктивними, і результати відображали цю упередженість. 

Ще один широко поширений приклад: на щорічній конференції розробників Google I/O Google поділився попереднім переглядом інструменту допомоги дерматології на основі штучного інтелекту, який допомагає людям зрозуміти, що відбувається з проблемами, пов’язаними з їхньою шкірою, волоссям і нігтями. Помічник дерматолога підкреслює, як AI розвивається, щоб допомогти в охороні здоров’я, але він також підкреслив можливість упередженості проникнути в AI після критики, що інструмент не підходить для кольорових людей.

Коли Google анонсував інструмент, компанія зазначила:

Щоб переконатися, що ми працюємо для всіх, наша модель враховує такі фактори, як вік, стать, раса та тип шкіри — від блідої шкіри, яка не засмагає, до коричневої шкіри, яка рідко обгорає.

Google, використовуючи AI, щоб допомогти знайти відповіді на поширені захворювання шкіри

Але у статті у Vice сказано, що Google не використав всеосяжний набір даних:

Для виконання поставленого завдання дослідники використали навчальний набір даних із 64,837 12,399 зображень 3.5 90 пацієнтів, розташованих у двох штатах. Але з тисяч шкірних захворювань, представлених на фото, лише XNUMX відсотка прийшли від пацієнтів із типами шкіри за Фіцпатріком V та VI — з коричневою шкірою та темно-коричневою або чорною шкірою відповідно. Згідно з дослідженням, XNUMX відсотків бази даних складали люди зі світлою, темно-білою або світло-коричневою шкірою. Дерматологи кажуть, що в результаті упередженого відбору проби програма може стати причиною надмірної або недостатньої діагностики людей, які не є білими.

Vice, новий додаток Google для дерматології не був розроблений для людей із темною шкірою

Google у відповідь сказав, що вдосконалює інструмент, перш ніж офіційно випустити його:

Наш інструмент допомоги дерматології з штучним інтелектом є кульмінацією більш ніж трирічних досліджень. Оскільки наша робота була представлена ​​в Nature Medicine, ми продовжуємо розвивати та вдосконалювати нашу технологію, включаючи додаткові набори даних, які включають дані, подані тисячами людей, і мільйони інших кураторських зображень шкіри.

Google, використовуючи AI, щоб допомогти знайти відповіді на поширені захворювання шкіри

Як би ми не сподівалися, що ШІ та програми машинного навчання можуть виправити ці упередження, реальність залишається: вони лише як розумний оскільки їхні набори даних чисті. В оновлення старої приказки програмування сміття в / сміття, Рішення ШІ настільки ж сильні, як і якість їхніх наборів даних з самого початку. Без виправлення від програмістів ці набори даних не мають досвіду роботи, щоб виправити себе, оскільки вони просто не мають інших систем відліку.

Відповідальне створення наборів даних є основою всього етичний штучний інтелект. І люди лежать в основі вирішення проблеми. 

Уважний ШІ – це етичний ШІ

Упередження не виникає на порожньому місці. Неетичні або упереджені набори даних виникають через неправильний підхід на етапі розробки. Спосіб боротьби з помилками упередженості полягає в тому, щоб прийняти відповідальний, орієнтований на людину підхід, який багато хто в галузі називають розумним ШІ. Mindful AI має три важливі компоненти:

1. Уважний ШІ орієнтований на людину

З самого початку проекту AI, на етапах планування, потреби людей повинні бути в центрі кожного рішення. А це означає, що всі люди – не лише підмножина. Ось чому розробникам потрібно покладатися на різноманітну команду глобальних людей, щоб навчити додатки AI бути інклюзивними та вільними від упереджень.

Краудсорсинг наборів даних від глобальної, різноманітної команди гарантує своєчасне виявлення і відфільтровування упереджень. Люди різної етнічної групи, вікових груп, статі, рівня освіти, соціально-економічного походження та місцеположення можуть легше виявити набори даних, які віддають перевагу одному набору цінностей перед іншим, таким чином усуваючи ненавмисне упередження.

Подивіться на голосові програми. Застосовуючи уважний підхід до штучного інтелекту та користуючись потужністю глобального потенціалу талантів, розробники можуть враховувати лінгвістичні елементи, такі як різні діалекти та акценти в наборах даних.

Встановити структуру дизайну, орієнтовану на людину, з самого початку дуже важливо. Це дуже важливо для того, щоб дані, згенеровані, підпорядковані та позначені, відповідали очікуванням кінцевих користувачів. Але також важливо тримати людей в курсі всього життєвого циклу розробки продукту. 

Люди в циклі також можуть допомогти машинам створити кращий досвід ШІ для кожної конкретної аудиторії. У Pactera EDGE наші команди проектів даних AI, розташовані по всьому світу, розуміють, як різні культури та контексти можуть вплинути на збір і зберігання надійних навчальних даних AI. Вони мають необхідні інструменти, необхідні для позначення проблем, моніторингу та їх усунення, перш ніж рішення на основі штучного інтелекту почне працювати.

Інтелектуальний інтелект «Людина-в-петлі» — це проект «мережі безпеки», який поєднує сильні сторони людей і їх різний досвід із швидкими обчислювальними можливостями машин. Цю співпрацю між людьми та штучним інтелектом необхідно налагодити з самого початку програм, щоб упереджені дані не становили основу проекту. 

2. Уважний ШІ несе відповідальність

Відповідальність – це гарантувати, що системи штучного інтелекту не мають упереджень і ґрунтуються на етиці. Йдеться про те, щоб пам’ятати про те, як, чому і де створюються дані, як вони синтезуються системами ШІ та як вони використовуються для прийняття рішень, рішень, які можуть мати етичні наслідки. Один із способів для бізнесу це зробити – це працювати з недостатньо представленими спільнотами, щоб бути більш інклюзивними та менш упередженими. У сфері анотацій даних нове дослідження висвітлює, як багатозадачна модель з кількома анотаторами, яка розглядає мітки кожного анотатора як окрему підзадачу, може допомогти пом’якшити потенційні проблеми, властиві типовим методам реальної істини, коли розбіжності між анотаторами можуть бути викликані недостатнім представленням та можна ігнорувати в агрегаті анотацій до єдиної істини. 

3. Надійний

Надійність випливає з того, що бізнес є прозорим і пояснюється тим, як навчається модель ШІ, як вона працює та чому вони рекомендують результати. Підприємству потрібен досвід локалізації штучного інтелекту, щоб його клієнти могли зробити свої програми штучного інтелекту більш інклюзивними та персоналізованими, дотримуючись критичних нюансів місцевої мови та досвіду користувачів, які можуть підвищити чи зламати довіру до рішення AI від однієї країни до іншої. . Наприклад, компанія повинна розробляти свої програми для персоналізованих і локалізованих контекстів, включаючи мови, діалекти та акценти в голосових програмах. Таким чином, програма забезпечує однаковий рівень витонченості голосового досвіду для кожної мови, від англійської до малопредставлених мов.

Справедливість і різноманітність

Зрештою, розумний ШІ гарантує, що рішення будуються на основі справедливих і різноманітних наборів даних, де наслідки та вплив конкретних результатів відстежуються та оцінюються до того, як рішення надходить на ринок. Будучи уважними та включаючи людей у ​​кожну частину розробки рішення, ми допомагаємо забезпечити, щоб моделі ШІ залишалися чистими, мінімально упередженими та максимально етичними.

Що ви думаєте?

Цей сайт використовує Akismet для зменшення спаму. Дізнайтеся, як обробляються ваші дані коментарів.