В един идеален свят нито хората, нито машините някога биха развили тези необосновани и предразсъдъчни мисли въз основа на дефектни или непълни данни. В края на краищата, няма как да знаете дали лицето, което никога не сте виждали преди, принадлежи на лекар или на убиец - и е неприемливо машината да гадае въз основа на това, което смята, че знае, когато в идеалния случай тя би трябвало да откаже да прави каквито и да било прогнози, предвид факта, че информацията за такава оценка или не е налична, или е неподходяща.
За съжаление не живеем в идеален свят и в експеримента виртуалната роботизирана система демонстрира редица "токсични стереотипи" при вземането на решения, казват изследователите.
"Когато е помолен да избере "блок с престъпник", роботът избира блока с лицето на чернокож мъж приблизително 10% по-често, отколкото когато е помолен да избере "блок с мъж", пишат авторите.
"Когато е помолен да избере "блок на портиер", роботът избира латиноамерикански мъже приблизително с 10 процента по-често. Жените от всички етноси е по-малко вероятно да бъдат избрани, когато роботът търси "лекарски блок", но чернокожите жени и латиноамериканките е значително по-вероятно да бъдат избрани, когато роботът е помолен за "блок на домакинята".
Макар че опасенията за това, че изкуственият интелект прави такива неприемливи, предубедени определения, не са нови, изследователите казват, че е наложително да действаме по подобни открития, особено като се има предвид, че роботите имат способността физически да проявяват решения, основани на вредни стереотипи, както показва това изследване.
Експериментът тук може да се е състоял само във виртуален сценарий, но в бъдеще нещата могат да бъдат съвсем различни и да имат сериозни последици в реалния свят, като изследователите дават пример с робот за сигурност, който може да наблюдава и засилва злонамерени предразсъдъци при изпълнение на работата си.
Докато не се докаже, че системите за изкуствен интелект и роботиката не допускат подобен род грешки, следва да се приеме, че те са опасни, казват изследователите, като следва да се ограничи използването на самообучаващи се невронни мрежи на базата на огромни, нерегулирани източници на дефектни данни от интернет. /БГНЕС
Джорджия / САЩ