1. Загриженост относно човешката агентура, еволюция и оцеляване

Ясното мнозинство от отговорите на тези експерти съдържаха материали, очертаващи определени предизвикателства, страхове или притеснения относно бъдещето, вдъхнато от ИИ. Петте най-често споменавани опасения бяха: 1) използването на ИИ намалява контрола на хората над живота им; 2) системите за наблюдение и данни, предназначени предимно за ефективност, печалба и контрол, са изначално опасни; 3) разместването на човешки работни места от ИИ ще разшири икономическите и цифровите разделения, което може да доведе до социални сътресения; 4) когнитивните, социалните умения и уменията за оцеляване на индивидите ще бъдат намалени, когато те станат зависими от AI; и 5) гражданите ще се сблъскат с повишена уязвимост, като излагане на киберпрестъпления и кибервойни, които излизат извън контрол и възможността основните организации да бъдат застрашени от оръжия на информация. Няколко също се притесняват от унищожаването на човечеството на едро. Разделите на тази глава ще обхващат отговорите на експертите, свързани с тези теми.


Използването на AI намалява контрола на хората над живота им

Автономните системи могат да намалят или премахнат необходимостта от човешко участие в някои задачи. Днешните непрекъснато напредващи инструменти за изкуствен интелект (ANI) - например търсачките и цифровите „агенти“ като Siri, Alexa и Cortana - не са близо до постигането на целта на човешкия изкуствен общ интелект (AGI). Те обаче непрекъснато стават все по-мощни благодарение на разработките в машинното обучение и обработката на естествен език и напредъка в науката за материалите, мрежите, съхранението на енергия и хардуерните възможности.

ANI е машинен интелект, който се равнява или надвишава способностите или ефективността на хората при конкретна задача. Години наред кодовите инструменти в роботи и други системи изпълняват повтарящи се задачи като дейности по сглобяване на фабричен под. Днес тези инструменти бързо се развиват, за да овладеят човешките черти като разум, логика, учене, изпълнение на задачи и творчество. Днешните интелигентни, мрежови, софтуерно оборудвани устройства, автомобили, цифрови асистенти и платформи, като търсене с Google и социално картографиране във Facebook, изпълняват изключително сложни задачи. Системите, които са в основата на днешните глобални финансови пазари, бизнеса, военните, полицейските сили и медицинските, енергийните и промишлените операции, са зависими от мрежовия интелект от един или друг вид.

Какво е бъдещето на хората в ерата на ускоряващите се технологични промени?

Много експерти в това проучване казват, че с напредването на ИИ човешката автономия и свобода на действие са изложени на риск. Те отбелязват, че вземането на решения по ключови аспекти на живота се отстъпва на инструменти, управлявани от код. Хората, които функционират в този цифров свят, жертват в различна степен своята независимост, право на неприкосновеност и власт над избора. Много от експертите, които се притесняват от това, казват, че хората се присъединяват към това, за да останат конкурентоспособни, да участват социално и професионално в света, да се забавляват и да свършат нещата. Те казват, че хората предават известен контрол върху живота си поради възприетите предимства, които получават чрез цифрови инструменти - ефективност, удобство и превъзходно разпознаване на образци, съхранение на данни и възможности за търсене и намиране. Ето подбор от отговори на тези експерти, които се докосват до това:

Анонимен респондентобобщава опасенията на мнозина, като пише: „Най-страшният обрат в човешкото богатство от епохата на ИИ е загубата на свобода на действие. Компромисът за почти моменталното удобство на цифровия живот с ниско триене е загубата на контекст и контрол върху неговите процеси. Сляпата зависимост на хората от цифровите инструменти се задълбочава, тъй като автоматизираните системи стават по-сложни и собствеността върху тези системи е от елита “.


До 2030 г. може да натъпчем повече дейности и взаимодействия в наши дни, но не мисля, че това ще направи живота ни ‘по-добър.’ Baratunde Thurston



Баратунда Търстън, футуролог, бивш директор на дигиталното в The Onion и съосновател на комедийно / технологично стартиране Cultitured Wit, каза: „За протокола това не е бъдещето, което искам, но очаквам предвид съществуващите настройки по подразбиране в нашите икономически и социално-политически предпочитания ... Проблемите, към които прилагаме машинно обучение и изкуствен интелект, обикновено не са такива, които ще доведат до „по-добър“ живот за повечето хора. Ето защо казвам, че през 2030 г. повечето хора няма да бъдат по-добри поради AI. Няма да бъдем по-автономни; ще бъдем по-автоматизирани, докато следваме метафоричната GPS линия чрез ежедневни взаимодействия. Не избираме закуската или сутрешните тренировки или маршрута си до работа. Един алгоритъм ще направи този избор за нас по начин, който максимизира ефективността (тясно дефинирана) и вероятно също така увеличава доходността на доставчика на услуги. До 2030 г. може да натъпчем повече дейности и взаимодействия в наши дни, но не мисля, че това ще направи живота ни „по-добър.“ По-добър живот, по мое определение, е този, в който се чувстваме по-ценени и щастливи. Като се има предвид, че най-големите инвестиции в AI са от името на маркетингови усилия, предназначени да изчерпят нашето внимание и банкови баланси, мога само да си представя, че това води до дни, които са по-запълнени, но животи, които са по-малко изпълнени. За да създадем различно бъдеще, вярвам, че трябва да разгърнем тези технологии към цели извън максимизирането на печалбата. Представете си приложение за картографиране, което начертава работата ви до работното пътуване по най-красивия маршрут, а не просто по най-бързия. Представете си приложение за комуникация, което улеснява по-дълбоки връзки с хора, които смятате за най-важни. Тези технологии трябва да са по-ориентирани към хората. Трябва да помолим те да ни попитат: „Какво е важно за теб? Как бихте искали да прекарвате времето си? ’Но това не е системата, която изграждаме. Всички тези решения са натрупани от въображаемия стремеж към печалба “.


Тад Хол, изследовател и съавтор на „Политика за свързана американска общественост“, добави: „ИИ вероятно ще има ползи - от подобряване на медицинските диагнози до подобряване на потребителския опит на хората. Има обаче четири аспекта на ИИ, които са много проблематични. 1) Вероятно ще доведе до по-голяма икономическа несигурност и разместване на хората, включително проблеми със заетостта и повече нужда от смяна на работата, за да останат актуални. 2) AI ще продължи да нарушава поверителността на хората, тъй като търсенето става по-задълбочено. Китайският мониторинг на популациите илюстрира как може да изглежда това в авторитарен режимиЗападните страни, с по-голямо разпознаване на лица, използвани за идентифициране на хората и засягане на личния им живот. 3) ИИ вероятно ще продължи да има пристрастия, които са отрицателни към малцинственото население, включително групи, които не сме разглеждали. Като се има предвид, че алгоритмите често имат разпознаваеми пристрастия (например, благоприятстват хора, които са бели или мъже), те вероятно имат и пристрастия, които са по-малко разпознати, като пристрастия, които са отрицателни към хората с увреждания, възрастните хора или други групи. Тези пристрастия могат да се променят в обществото по непознати начини. Някои групи са по-склонни да бъдат наблюдавани ефективно. 4) AI създава свят, в който реалността може да бъде манипулирана по начини, които не оценяваме. Фалшивите видеоклипове, аудио и подобни медии вероятно ще експлодират и ще създадат свят, в който „реалността“ е трудна за разпознаване. Релативисткият политически свят ще стане още повече, като хората ще имат доказателства в подкрепа на собствената си реалност или множество реалности, което означава, че никой не знае какво е „истината“.

Томас Шнайдер, ръководител на Службата за международни отношения и заместник-директор във Федералното бюро за комуникации (OFCOM) в Швейцария, каза: „AI ще помогне на човечеството да бъде по-ефективно, да живее по-безопасно и по-здравословно и да управлява ресурси като енергия, транспорт и т.н., по-ефективно. В същото време има редица рискове, че ИИ може да се използва от властите за манипулиране, контрол и доминиране над другите. (Виждали сме това при всяка нова технология: тя може и ще се използва за добри и лоши.) Много ще зависи от това как ще се управлява ИИ: Ако имаме приобщаваща система за управление отдолу нагоре на добре информирани граждани, тогава ИИ ще се използва за подобряване на качеството ни на живот. Ако само няколко души решат как се използва ИИ и за какво, много други ще зависят от решенията на тези няколко и рискуват да бъдат манипулирани от тях. Най-голямата опасност според мен е, че ще има по-голям натиск върху всички членове на нашите общества да живеят според това, което „системата“ ще ни каже, че е „най-добре за нас“ да правим и да не правим, т.е., за да можем губим автономността, за да решим сами как искаме да живеем живота си, да изберем различни начини за правене на нещата. С все повече и повече „препоръки“, „класиране“ и конкуренция чрез социален натиск и контрол, ние можем да рискуваме да загубим индивидуални основни свободи (включително, но не само правото на личен живот), за които сме се борили през последните десетилетия и векове “.


Барт Книненбург, асистент по компютърни науки, който е активен в Института за човешки фактори в Университета Клемсън, каза: „Дали AI ще подобри живота ни зависи от това как се прилага. Много настоящи системи за изкуствен интелект (включително адаптивни системи за представяне на съдържание и така наречените системи за препоръки) се опитват да избегнат претоварване с информация и избор, като заменят процесите ни на вземане на решения с алгоритмични прогнози. Истинското овластяване ще дойде от тези системи, които поддържат, вместо да заменят нашите практики за вземане на решения. Това е единственият начин да преодолеем претоварването с избор / информация и в същото време да избегнем така наречените „филтърни мехурчета.“ Например, настоящите системи за класиране на публикациите на Facebook в крайна сметка ще превърнат всички нас в котки, гледащи зомбита, защото те следват нашето поведение модели, които може да не са съобразени с нашите предпочитания. Алгоритмите, които стоят зад тези инструменти, трябва да подкрепят човешката агентура, а не да я заменят “.

Питър Райнер, професор и съосновател на Националното ядро ​​за невроетика в Университета на Британска Колумбия, коментира: „Убеден съм, че през 2030 г. и двата клона на тази заявка ще бъдат верни: Алгоритмите, управлявани от ИИ, значително ще подобрят нашите способности като хораичовешката автономия и свобода на действие ще бъдат намалени. Дали хората ще бъдат в по-добро състояние, отколкото са днес, е отделен въпрос и отговорът зависи до голяма степен от това как се очертават очертаващите се технологични разработки. От една страна, ако корпоративните субекти запазят необуздан контрол върху начина, по който алгоритмите, управлявани от ИИ, взаимодействат с хората, хората ще бъдат в по-лошо състояние, тъй като загубата на автономност и свобода на действие ще бъде до голяма степен в полза на корпорациите. От друга страна, ако „ние, хората“ изискваме корпоративните субекти да разгърнат AI алгоритми по начин, който е чувствителен към въпросите на човешката автономия и агентиране, тогава има реална възможност за нас да бъде по-добре - подобрено от мощността на управлявания от AI алгоритъм и въпреки това не е отнесена към обедненото място на масата за вземане на решения. Може дори да се анализира това допълнително, като се предвиждат определени решениямогада бъдете удобно оставени в ръцете на алгоритъма, управляван от AI, с други решения, които се връщат на хората или са достигнати чрез комбинация от управляван от AI алгоритмичен вход и вземане на решения от човека. Ако подходим умело към тези въпроси - и ще е необходима съвместна работа между етиците и индустрията - можем да имаме най-доброто от двата свята. От друга страна, ако сме слаби в дейността си като пазачи на индустрията, ще бъдем функционално богати и бедни по решение.

Пол Викси, член на Интернет залата на славата, известен с проектирането и внедряването на няколко разширения и приложения на системата за имена на домейни, написа: „Разбирането е перфектно прокси за контрол. Тъй като правим по-голяма част от световната икономика неразбираема за масите, ние улесняваме мощните интереси да упражняват контрол. Реалната автономия или поверителност или непредсказуемост ще се разглеждат като заплаха и ще се управляват наоколо “.

Жоао Педро Тавейра, изследовател на вградени системи и архитект на интелигентни мрежи за INOV INESC Inovação в Португалия, написа: „По принцип ще загубим няколко степени на свобода. Готови ли сме за това? Когато се събудим за случващото се, може да е твърде късно да направим нещо по въпроса. Изкуственият интелект е предмет, който трябва да се изучава философски, с отворени, абстрактни и хипотетични начини. Използвайки тази перспектива, проблемите, които трябва да бъдат решени от хората, са (но не само) ИИ, чувства, ценности, мотивация, свободна воля, солидарност, любов и омраза. Да, ще имаме сериозни проблеми. Отхвърляйки „изкуствения“ от AI, погледнете концепцията за интелект. Като човек, занимаващ се с компютърни науки, знам, че така нареченият „AI“ изучава как агент (софтуерна програма) увеличава базата си от знания, използвайки правила, дефинирани с помощта на механизми за разпознаване на образци. Без значение кои механизми се използват за генериране на този набор от правила, резултатът винаги ще бъде поведенческо профилиране. В момента всички използват и се съгласяват да използват широк набор от уреди, услуги и продукти без пълно разбиране на информацията, която се споделя с предприятия, компании и други страни. Липсват необходимите механизми за регулиране и одит на това кой или какво използва нашата информация и как тя се използва и дали тя се съхранява за бъдеща употреба. Правителствата и други ще се опитат да получат достъп до тази информация, като използват тези инструменти с указ, аргументирайки подобренията на националната сигурност или ефективността на администрацията. Предприятията и компаниите могат да твърдят, че тези инструменти предлагат подобряване на качеството на услугата, но няма гаранция за неприкосновеността на личния живот, анонимността, индивидуалната сигурност, неприложимостта и т.н. “.


Рамон Лопес де Мантарас, директор на Изследователския институт за изкуствен интелект на Испанския национален съвет за научни изследвания, каза: „Не мисля, че е добра идея да се предоставят високи нива на автономност на системите за изкуствен интелект. Те са и ще бъдат слаби системи за ИИ без здрави познания. Те ще имат все повече компетентност, да, но това ще бъде компетентност без разбиране. Машините с изкуствен интелект трябва да останат на нивото на инструментите или най-много асистентите, като винаги държат човека в течение. Всички трябва да прочетем или препрочетем книгата „Компютърна сила и човешки разум“ на Джоузеф Вайценбаум, преди да решим дали да дадем много автономия на глупавите машини “.

Оскар Ганди, заслужил професор по комуникация в Университета на Пенсилвания, отговори: „Системите за изкуствен интелект ще допринесат съществен и важен принос за способността на доставчиците на здравни услуги да генерират точни диагнози за болести и заплахи за моето благосъстояние, сега и в бъдеще. Мога да си представя развитието и внедряването на системи, в които моето благосъстояние е основната основа на нашите взаимоотношения. По-малко съм сигурен как моят достъп до и използването на този ресурс може да бъде ограничен или изкривен от интересите на останалите участници (хора в ориентация към печалба / власт). Предполагам, че те ще бъдат подпомогнати от техните собствени системи за ИИ, които ги информират как най-добре да ми представят опции. Надявам се, че ще имаме агенти (независимо дали са частни, социални, правителствени), чийто интерес и отговорност е да гарантират, че моите интереси управляват тези взаимоотношения “.

Робърт Епщайн, старши изследователски психолог в Американския институт за поведенчески изследвания и технологии и директор-основател на наградата Льобнер, състезание по изкуствен интелект, каза: „До 2030 г. е вероятно ИИ да са постигнали вид усещане, дори ако не е като човек. Те също така ще могат да упражняват различна степен на контрол върху повечето човешки комуникации, финансови транзакции, транспортни системи, електрически мрежи и оръжейни системи. Както отбелязах в книгата си от 2008 г. „Разбор на теста на Тюринг“, те ще живеят в „ИнтерНест“, който изградихме за тях, и няма как да ги изместим. Как те ще решат да се справят с човечеството - да ни помогнат, да ни игнорират или да ни унищожат - ще зависи изцяло от тях и в момента няма начин да се предскаже кой път ще изберат. Тъй като няколко параноични хора почти сигурно ще се опитат да унищожат новите съзнателни ИИ, има поне разумна възможност те да ни избият като мухите, каквито сме - възможността, за която Стивън Хокинг, Илон Мъск и други са предупредили. Доколкото знам, няма начин това бъдеще да бъде спряно. Водени от удобството на свързаността, алчността, която стои в основата на разширяването на бизнеса, и мечтите на объркани хора, които бъркат подобен на машината интелект с биологичен интелект, ние ще продължим да изграждаме AI, които едва разбираме, и да разширяваме InterNest, в който те ще на живо - докато настъпи неизбежното - каквото и да се окаже “.

Адвокат, специализиран в политически въпроси за глобална организация за цифрови правакоментира: „Не съм сигурен дори днес, дали технологичният напредък през последните 12 години е нетно положителен за световното население. Видяхме увеличаваща се пропаст между много богатите и всички останали. Това вероятно е лошо за демокрацията. Изглежда, че AI може да влоши проблема със заетостта / обучението в САЩ и AI може да има подобни ефекти в страни, които в момента осигуряват евтина работна ръка. От страна на политическото правителство ИИ ще изостри настоящите проблеми с наблюдението и отчетността. Предполагам, че AI ще подобри и ускори цялото разпознаване на биометрични модели, както и ДНК анализ и обработка на естествен език. И въпреки че знаем, че голяма част от това е предубедено, ние не противодействаме адекватно на пристрастията, за които знаем. Компаниите, които генерират и разпространяват AI технология, имат всички стимули да продължат. Не съм оптимист, че колективните действия - поне в системата на САЩ - ще се противопоставят успешно на тези стимули “.

Брайън Белендорф, изпълнителен директор на проекта Hyperledger в фондацията Linux и експерт в блокчейн технологията, написа: „Притеснявам се, че AI няма да бъде демократизираща сила, но ще увеличи допълнително силата и богатството на тези, които вече го притежават. Това е така, защото повече данни означават по-добър AI и данните са скъпи за придобиване, особено лични данни, най-ценния вид. Това е за разлика от мрежовите технологии, чиито предимства се споделят доста широко, тъй като цените на компонентите намаляват еднакво бързо за всички. Друга причина: Приложенията за изкуствен интелект ще бъдат по-трудни за отстраняване на грешки в сравнение с обикновените приложения и вече виждаме трудно отстраними грешки, водещи до лишаване от права и влошаване на начина на живот. Така че, не приемам като даденост, че ИИ ще обогати живота на „повечето“ хора през следващите 12 години “.

Въпреки че вярвам, че сътрудничеството между хора и машини ще донесе много ползи на обществото с течение на времето, страхувам се, че до 2030 г. няма да постигнем достатъчно напредък, за да гарантираме, че ползите ще бъдат разпределени равномерно ... Айлин Донахое

Айлин Донахо, изпълнителен директор на Глобалния инкубатор за цифрова политика в Станфордския университет, коментира: „Въпреки че вярвам, че сътрудничеството между хора и машини ще донесе много ползи на обществото с течение на времето, страхувам се, че до 2030 г. няма да постигнем достатъчно напредък, за да гарантираме, че ползите ще да се разпределят равномерно или да се предпазят от отрицателни рискове, особено тъй като те са свързани с пристрастия, дискриминация и загуба на отчетност по това време “.

Дейвид Брей, изпълнителен директор на Интернет, ориентиран към хората, коментира: „Надежда: Сътрудничеството човек-машина / ИИ разширява нашите способности на хората, докато ние (хората) умишлено се стремим да запазим ценностите на уважение, достойнство и свобода на избор за отделните хора. Машините обединяват различни групи хора и общности и ни помагат да работим и да живеем заедно, като размишляваме върху собствените си пристрастия и ни помагат да разберем множеството различни перспективи на другите. Голяма загриженост: Оказва се сътрудничеството човек-машина / ИИнеоблагодетелстват всички, само няколко, и водят до форма на „подчинено сервитут“ или „неофеодализъм“, който не е ориентиран към хората и не повдига хората. Машините усилват съществуващите пристрастия за потвърждение и други човешки характеристики, водещи до сензационни, изпълнени с емоции новини и други комуникации, които получават прегледи на страници и кликвания върху реклами, но липсват нюанси на разбиране, което води до племенност и прехвърляне на отворени общества и множества в ущърб на глобално човешко състояние “.

Бърни Хоган, старши научен сътрудник в Оксфордския интернет институт, пише: „Настоящият политически и икономически климат предполага, че съществуващите технологии, особено машинното обучение, ще бъдат използвани за създаване на по-добри решения за управляващите, като същевременно се създава все по-отегчителен морав на бюрокрацията за останалите . Виждаме малък пример за успешна технология отдолу-нагоре, технология с отворен код и хактивизъм по отношение на посягащото състояние на наблюдение и икономиката на вниманието “.

И Бюрер, пенсиониран професор по компютърни науки, бивш в Националния университет на Чунг Ченг в Тайван, предупреди: 'Статистиката ще бъде заменена от индивидуализирани модели, като по този начин ще се позволи контрол върху всички индивиди от тоталитарните държави и в крайна сметка от социално интелигентните машини'.

Натали Маречал, докторант в Университета за Южна Калифорния за комуникация в Аненберг, който изследва пресечната точка на интернет политиката и правата на човека, каза: „Липсват бързи и решителни действия за овладяване както на прекомерното държавно управление, така и на аморалните стремежи на компаниите за печалба, технологичното развитие - включително AI - ще създаде инфраструктура за пълен социален контрол, заплашващ демокрацията и правото на индивидуално самоопределение “.

Катя Грейс, сътрудник на изследователския проект за AI Impacts и изследовател от Института за изследване на машинното разузнаване, каза: „Съществува значителен шанс AI да остави всички по-зле, може би радикално. Шансът е по-малко от 50 процента, но рискът от намаляване е толкова голям, че може да има очаквания светът да е по-лош за ИИ “.

Дейвид А. Банкс, асоцииран изследователски анализатор към Съвета за социални науки, каза: „ИИ ще бъде много полезен за малък професионален клас, но ще се използва за наблюдение и контрол на всички останали“.

Луис Герман Родригес Лийл, учител и изследовател в Университета на Централна де Венецуела и консултант по технологии за развитие, каза: „Човечеството не се занимава правилно с въпроса за обучението на хората за възможностите и рисковете от сътрудничеството човек-машина / ИИ. Днес можем да наблюдаваме нарастващите проблеми на недобросъвестното манипулиране на информационни и технологични ресурси. Вече има много примери за това как вземането на решения е предубедено с използване на големи данни, машинно обучение, нарушения на поверителността и социални мрежи (само да спомена няколко елемента) и може да се види, че обикновеният гражданин не знае колко от неговите / нейните завещанието не му принадлежи. Този факт има значително влияние върху нашия социален, политически, икономически и личен живот. Ние не правим достатъчно, за да обърнем внимание на този проблем и става много късно “.

Llewellyn Kriel, Главен изпълнителен директор на TopEditor International, компания за медийни услуги, базирана в Йоханесбург, Южна Африка, написа: „Настоящото развитие не предвещава добре за справедливия растеж на AI. Голяма част от населението просто няма интелектуален капацитет или ниво на усъвършенстване, за да разбере 1) самата технология и 2) последиците от безопасното й използване. Това утвърждава и разширява цифровото разделение на места като Африка. Социално-политическите последици от тази порода пораждат дълбоко примитивно суеверие, расова омраза към белите и азиатците, които се разглеждат като техно-колониалисти и растежа на клептокрациите сред настоящото разрастване на корупцията.

Стивън Томпсън, автор, специализиран в осветляването на нововъзникващи проблеми и редактор на „Androids, Cyborgs and Robots in Contemporary Culture and Society“, написа: „Ключовата дума от заявката е„ зависимост “. Публикувах новаторски количествени изследвания за зависимостта и зависимостта от интернет през 1996 г. , и последва 15 години по-късно със свързана, актуализирана изследователска беседа за бъдещето на ИИ и зависимостта от интернет на спонсорирана от ЮНЕСКО конференция за информационна грамотност в Мароко. Моят опит е в етични и технологични въпроси, свързани с преместването на интернет уреда в човешкото тяло ... Интернет се придвижва в човешкото тяло и в този процес социалните статуси се променят, привилегировайки някои, като изоставя други в името на нововъзникващите технологии, а глобалният ред се преструктурира със същия ефект. Помислете за проблемите на неутралността на мрежата, които са полудели, корпоративно и човешки поддържани с привилегиите, които създаването и поддръжката предоставя на някои членове на обществото. Сега помислете за проблемите със свободата, произтичащи от хората, които са цифрови изгнаници и желаят да не са в мрежата, но все пак ще бъдат принудени да го правят от обществото и дори от правителствените постановления “.

Майката на Алън, дългогодишен изпълнителен директор на Силициевата долина, изпълнителен директор на кабелната телевизия и сега преподавател по медийна икономика и предприемачество в Калифорнийския университет в Бъркли, каза: „Опасността е, че ще се предадем на мислене, изследване и експериментиране на инструменти, които спазват правилата, но не може да оцветява извън линиите. Искате ли компютрите да изберат президента или да решите дали се нуждаете от хип хирургия?

Дан Гиър, респондент, който не е предоставил идентифициращи подробности, коментира: „Ако вярвате, както и аз, че целта на нечий живот е всичко, което дава възможност както за гордост, така и за щастие, тогава въпросът става дали ИИ ще намали или не целта. За нерелигиозните AI ще разруши целта, но ако AI е наистина интелигентен, тогава AI ще направи обслужванетоцелта на масите. Ерго ...

Кристобал Йънг, доцент по социология в университета Корнел, специализиран в икономическата социология и стратификация, коментира: „В основата на отговора си (че технологията няма да остави повечето хора в по-добро състояние, отколкото са днес) е Twitter и други онлайн медии, които първоначално бяха похвалени като „технология за освобождение“. Ясно е, че Интернет е опустошил професионалната журналистика, напълнил публичната сфера с боклуци, на които никой не вярва, и унизил гражданския дискурс. Тук не става въпрос за роботи, а за това как хората използват интернет. Самият Доналд Тръмп казва, че без Twitter той никога не би могъл да бъде избран и Twitter продължава да бъде неговата платформа за поляризация, обида и атаки срещу институциите за отчетност “.

Дейвид Дж. Кригер, съдиректор на Института за комуникация и лидерство в Люцерн, Швейцария, написа: „Преимуществата на цифровите технологии обвързват хората в информационни мрежи, така че мрежата да стане актьор, а разузнаването, както и агенцията, са качества на мрежата като цяло а не някакви отделни участници, независимо дали са човешки или нечовешки. Мрежите ще имат достъп до много повече информация, отколкото всеки съвременен актьор и следователно ще могат да се ориентират в сложна среда, например самоуправляващи се автомобили, лични асистенти, интелигентни градове. Обикновено ще се консултираме и ще си сътрудничим с мрежи във всички области, но цената ще бъде такава, че нямаме такова нещо като поверителност. Поверителността наистина е мъртва, но на мястото на личното управление на поверителността ще има публично управление в мрежата („публично“ е противоположността на поверителността). За да се гарантира използването на тези технологии за добро, а не за зло, ще е необходимо да се премахнат и заменят настоящите разделения между правителството и управляваните, работниците и капиталистите, както и да се установи работещо глобално управление “.

Уенди М. Гросман, автор на „net.wars“ и технологичен блогър, пише, „2030 е след 12 години. Вярвам, че сътрудничеството AI между човек и машина ще бъде успешно в много области, но че ще видим, като че ли сме вече във Facebook и други социални медии, сериозни въпроси относно собствеността и кой има полза. Изглежда вероятно границите на това, което машините могат да направят, ще бъдат малко по-ясни, отколкото са сега, когато сме забъркани в ажиотаж. Дотогава ще разберем колко успешни ще бъдат самоуправляващите се автомобили и проблемите, свързани с предаването на контрол от хората на машините в различни области, също ще станат по-ясни. Големият бой е да не позволяваме на хората да разчитат на експериментални системи и да изключват старите такива твърде рано - каквато е нашата настояща ситуация с интернет “.

Карл М. от Метър, основен редактор на Бюлетина на социологическата методология и автор на „Изчислителна социална наука в ерата на големите данни“, каза: „Благосъстоянието на световното население зависи от правителствата, които вземат„ интелигентни “решения въз основа на AI или други средства. Освен това промените в околната среда може да са определящият фактор за бъдещото благосъстояние, със или без „интелигентни“ решения на световните правителства “.

Андрю Уинстън, професор по компютърни науки и директор на Центъра за изследвания в електронната търговия към Тексаския университет в Остин, каза: „Има няколко проблема. Първо, проблемите със сигурността не привличат необходимото внимание. На второ място, може да се използва технологията за контрол на населението - както виждаме да се развива в Китай. Методологията на AI е фокусирана върху прогнозирането, поне досега, така че липсват методи за подобряване на здравето или общото благосъстояние. Дълбокото обучение, което придобива голям шум, няма ясна основа. Това го прави научно слаб “.

Мениджър за информационна администрацияотговори: „Отстъпваме все повече и повече вземане на решения и вземане на политики на заинтересовани страни в частната сфера. Нашите институции са недостатъчно пъргави, за да се справят с възникналите политически въпроси и опитите за регулиране на нови индустрии са подривани от корумпирана парична политика както на федерално, така и на щатско ниво “.

Няма доказателства, че повече ИИ ще подобри живота на повечето хора. Всъщност вероятно е точно обратното. Ще има повече безработица, по-малко поверителност и т.н. Интернет пионер

Интернет пионерказа: „Нищо в настоящите ни социални, икономически или политически структури не сочи към положителен резултат. Няма доказателства, че повече ИИ ще подобри живота на повечето хора. Всъщност вероятно е точно обратното. Ще има повече безработица, по-малко поверителност и т.н. “.

Следните еднопосочни линии от анонимни респонденти също се обвързват с човешка свобода на действие:

  • An Член на Залата на славата в Интернеткоментира, „AI няма да остави повечето хора в по-добро състояние, отколкото са днес, защото хората няма да могат да контролират живота си“.
  • ДА СЕ професор по изкуствен интелект и меки компютри в университет в Италияказа: „Развитието е прекарало човечеството през границата, границата на оцеляване; твърде лесно е да се контролира технологията по начини, които са опасни за хората “.
  • Anасистент по социална справедливостпише, „Технологията увеличава съществуващото (за добро или лошо). Просто има повече лошо, отколкото добро, за да бъдеш увеличен “.
  • ДА СЕ професор по дигитални хуманитарни науки в университет в района на Силициевата долинаказа, „Като се има предвид нарастващото неравенство в доходите в голяма част от света, опасявам се, че ИИ ще бъде използван за потискане на лишените от права и ще създаде още повече привилегии за малцина“.
  • ДА СЕизявен инженер и главен учен в големи технологични компаниикоментира: „Големите актьори ще използват ИИ в своя полза. Отделните клиенти могат да имат някои предимства като страничен ефект, на цената на по-ниска автономност “.
  • Професор по електротехника и иновации със седалище в Европаказа: „Хората ще загубят контрол над живота си, което ще остане в ръцете на малка група експерти или компании“.
  • Респондент със седалище в Турцияпише, „Поради неизвестна логика на алгоритмите, ние ще загубим своята автономия върху живота си и ежедневните си решения; човечеството зависи от ИИ и не се научава да бъде алгоритмично грамотен “.
  • Инженер и главен оперативен директорказа, „AI ще се използва за потискане на правата“.
  • Технолог за глобална организациякоментира: „Страхувам се, че ИИ ще контролира много фонови избори със значителни последици“.

Други анонимни респонденти коментираха:

  • „Повече ще бъдат делегирани на технологиите - смартфони, софтуер. Хората ще спрат да мислят или да се интересуват от „контрол“ и просто ще делегират всичко на „системата“.
  • „Можете да внедрите повечето технологии по начини, които подобряват свободата (и) автономността (или) имат обратен ефект“.
  • „Тъй като Китай се стреми да„ спечели “преднината на ИИ, имам сериозни съмнения, че каквито и да е ползи ще превъзхождат негативните ефекти върху правата на човека за повечето хора“.
  • „AI не е интелигентен, той е създаден от човека и следователно пристрастен и ненадежден, той не може да направи сега това, за което се твърди, че може да го направи“.
  • „Ако все още сме заключени в капитализма, не виждам как технологията ще помогне на хората да останат ангажирани и овластени в нашето общество“.
  • „Страхувам се, че ИИ ще се развие твърде бързо и че може да има сериозни последици, след като джийнът излезе от бутилката“.

Системите за наблюдение и данни, предназначени предимно за ефективност, печалба и контрол, са изначално опасни

Кой решава какво ще стане с кодовия живот на хората, кога, къде, защо и как? Много от тези респонденти посочиха опасения, че бъдещето на ИИ ще се формира от тези, движени от мотиви за печалба и жажда за власт. Те отбелязват, че много инструменти за ИИ разчитат на споделянето на информация, предпочитания, стратегии за търсене и данни на хората. Човешките ценности и етика не са задължително включени в системите, които вземат решенията на хората вместо тях. Тези експерти се притесняват, че вземането на решения, основани на данни, може да бъде склонно към грешки, пристрастия и фалшива логика или погрешни предположения. И тези експерти твърдят, че машинните решения често благоприятстват „ефективността“ в името на печалбата или властта, които са изключително неблагоприятни за отделните хора и подобряването на човешкото състояние.

Майкъл Клейман, старши сътрудник в Калифорнийския университет в Сан Диего и член на борда на Института за бъдещето, написа: „Използването на ИИ ще бъде непропорционално и пристрастно спрямо хората с повече ресурси. Като цяло това ще намали автономността и, заедно с големите данни, ще намали поверителността и ще увеличи социалния контрол. Ще има някои области, в които IA (увеличаване на интелигентността) помага да се направят нещата по-лесни и безопасни, но като цяло това ще бъде глобален нетен отрицателен резултат “.

ДА СЕ професор в голям американски университет и експерт по изкуствен интелект, приложен към социалните изчисленияказа, „Тъй като системите за изкуствен интелект взимат повече данни и взимат по-големи решения, хората все повече ще бъдат обект на техните необясними решения и практики, които не подлежат на ревизия. Тенденциите около демократичното управление на ИИ не са обнадеждаващи. Големите играчи са базирани в САЩ и САЩ са в позиция за регулиране, която изглежда доста трайна. Следователно очаквам технологиите за изкуствен интелект да се развиват по начини, които са в полза на корпоративните интереси, с малка възможност за значим обществен отговор “.

Джъстин Райх, изпълнителен директор на MIT Teaching Systems Lab и учен-изследовател в MIT Office of Digital Learning, отговори: „Системи за човешко сътрудничество с AI ще бъдат изградени от мощни, богати хора за решаване на проблемите на мощни, богати хора. В ръцете на автократичните лидери ИИ ще се превърне в мощен инструмент за наблюдение и контрол. В капиталистическите икономики сътрудничеството между човека и ИИ ще бъде разгърнато, за да се намерят нови, мощни начини за наблюдение и контрол на работниците в полза на по-богатите потребители.

Сет Финкелщайн, консултант програмист от Finkelstein Consulting и носител на наградата EFF Pioneer, коментира, „AI зависи от алгоритмите и данните. Кой може да кодира алгоритмите и да оспори резултатите? Данните притежават ли се като частна собственост и кой може да ги промени? Като много прост пример, нека вземем темата за алгоритмични препоръки за статии, които да чета. Настроени ли са да създават предложения, които водят до по-информативен материал - което, разбира се, е сравнително трудна задача и изпълнена с деликатни определения? Или са оптимизирани за ВНИМАНИЕ! КЛИКОВЕ! *ВЪЗМУЩЕНИЕ*!? Разбира се, последното е евтино и лесно - и въпреки че има свой собствен дял от политически проблеми, те често са по-податливи на корпоративното управление (т.е. кое е точно спрямо неприемливото). Съществува цяла структура от стимули, които ще се насочат към единия или другия резултат “.

Дъглас Рушков, професор по медии в Университета в Ню Йорк, отговори: „Основната причина, поради която вярвам, че въздействието на ИИ ще бъде най-вече отрицателно, е, че ще го прилагаме най-вече към нуждите на пазара, а не към нуждите на хората. Така че докато AI може да стане все по-добър в извличането на стойност от хората или в манипулирането на поведението на хората към по-голямо потребление и спазване, много по-малко внимание ще бъде обърнато на това как AI всъщност може да създаде стойност за хората. Дори най-полезният ИИ все още се измерва по отношение на способността му да предоставя полезност, стойност или повишаване на ефективността - разбира се, фини стойности, но не единствените, които имат значение за качеството на живот “.

Анали Килиан, футуролог и вицепрезидент по стратегическите партньорства в Sparks & Honey, написа: „Повече технологии не ни правят по-човеци; имаме доказателства за това в рамките на 10 години от комбинирането на смартфон устройството с убедителни и пристрастяващи дизайни, които оформят и похищават поведението. Технолози, които използват емоционален анализ, технологии за модифициране на образи и други хакове на сетивата ни, унищожават крехката тъкан на доверие и истина, която държи обществото ни заедно с много по-бързи темпове, отколкото ние адаптираме и компенсираме - камо ли да разбираме какво се случва . Изисканата технология е достъпна и може да се изследва в ръцете на много малко хора, които се обогатяват и развиват силата си експоненциално, и тези участници НЕ действат в най-добрия интерес на всички хора.

Колин Бейкър, старши изследовател на AI в Международния институт по компютърни науки в Калифорнийския университет, Бъркли, коментира: „Страхувам се, че напредъкът в AI ще бъде насочен до голяма степен в услуга на национални държави и мегакорпорации, вместо да се използва за наистина конструктивни цели . Положителният потенциал, особено в образованието и здравеопазването, е огромен, но хората ще трябва да се борят, за да се осъществи. ... Надявам се, че ИИ ще стане много по-добър в разбирането на грисанските максими за кооперативен дискурс и в разбирането на вярванията, намеренията и планове “.

Брайън Харви, лектор за социалните последици от компютърните технологии в Калифорнийския университет, Бъркли, каза: „Въпросът прави неправилни предположения, капсулирани в думата„ ние. “Няма ние; има собственици и работници. Собствениците (0,1%) ще бъдат по-добре заради AI. Работниците (най-ниските 95%) ще бъдат в по-лошо положение, стига да има собственици, които да притежават ИИ, както при всяка технология “.

Един от най-известните социални учени в света, изучаващ взаимодействията човек-технологияказа: „Основният ми страх е разпознаването на лица, използвано за социален контрол. Дори Microsoft молеше за правителствено регулиране! Наблюдението от всякакъв вид е бъдещето на ИИ. Не е доброкачествено, ако не се контролира '!

Девин Фидлър, футуролог и основател на Rethinkery Labs коментира: „Ако по-ранната индустриализация е някакво ръководство, може да преминем в период на засилено творческо унищожение, тъй като технологиите за изкуствен интелект стават достатъчно мощни, за да отменят установените институции и системите за подреждане на съвременните общества. Ако дупките, пробити в макромащабни организационни системи, не бъдат изрично адресирани и ремонтирани, ще има засилен натиск върху обикновените хора, тъй като те се сблъскват не само с проблемите на навигацията в непознат нов технологичен пейзаж, но и със системния провал на институциите, на които разчитат на които не са успели да се адаптират “.

Анонимен респондентказа: „Страхувам се, че технологията ще ни отдели допълнително от това, което ни прави хора и чувствителни към другите. Надявам се, че технологията ще бъде използвана за подобряване на качеството на живот, а не ще го замести. Голяма част от иновациите в AI просто запушват сетивата ни, крадат времето ни, увеличават каналите и нахлуват реклами. Това е унищожило телефоните ни, напълнило е пощенските кутии и е препълнило имейлите ни. Нито един продукт не си заслужава това ниво на проникване “.

Паола Перес, вицепрезидент на венецуелската глава на Интернет обществото и председател на Форума за публична политика на LACNIC, отговори: „Хората ще бъдат по-добри с AI. Много проблеми ще бъдат решени, но много работни места ще изчезнат и в резултат на това може да има повече бедни хора. Ще видим ли удължаване на живота? Може би, а може би и не, защото зависимостта ни от технологиите може да бъде и разрушителна за нашето здраве “.

Елиът Лир, главен инженер в Cisco Systems, прогнозира: „ИИ и технологиите няма да оставят повечето хора в по-добро състояние, отколкото са днес. Както винаги, технологията надминава способността ни да разберем нейните последици, за да управляваме правилно нейното използване. Нямам причина да вярвам, че ще сме наваксали до 2030 г. “.

Оливия Кумбе, респондент, който не е предоставил подробности за идентифициране, пише: „Децата се учат от родителите си. Тъй като системите за ИИ стават все по-сложни и им се отреждат все по-важни роли във функционирането на ежедневния живот, трябва да се запитаме на какво учим нашите изкуствени дигитални деца? Ако ги замислим и отгледаме в свят на личен личен интерес, те просто ще укрепят ли съществуващите и често потискащи системи на капиталистическа конкуренция? Или биха могли да тръгнат по своя път, като се стремят към живот на предприемачество към сътрудничество? Още по-лошо, ще видят ли благоговението, което държим на империите, и ще се стремят да изградят свои собствени чрез завоевание “?

ИИ ще създаде много предимства за много хора, но също така ще изостри много форми на неравенство в обществото.

Питър Асаро, професор в The New School и философ на науката, технологиите и медиите, който изследва изкуствения интелект и роботиката, коментира: „AI ще доведе до много предимства за много хора, но също така ще изостри много форми на неравенство в обществото. Вероятно ще бъде от полза за малка група, която проектира и контролира значително технологията, ще се възползва от доста по-голяма група от и без това по много начини, но също така потенциално ще им навреди и по други начини и за по-голямата част от хората по света тя ще предложи малко видими ползи и ще бъде възприемана предимно като инструмент на богатите и могъщите за повишаване на тяхното богатство и власт “.

Марк Дьоз, професор по медийни изследвания в Университета в Амстердам, пише: „С напредъка в изкуствения интелект и технологиите общественият дебат нараства за тяхното въздействие. Именно този дебат ще допринесе за етичните и морални измерения на ИИ, надявайки се да вдъхнови дискусия в цялото общество за това какво искаме от технологиите и как ще поемем отговорност за това желание “.

Ограбете мира, професор и катедра „Пионери“ по телекомуникации и право в Penn State University, каза: „Всяка интелигентна система зависи от кода, написан, за да я поддържа. Ако кодът е погрешен, крайният продукт отразява тези недостатъци. Съкращението от старата школа изписва това: GIGO, Garbage In, Garbage Out. Малко съм уверен, че ИИ може да включи всеки и всеки реален сценарий, дори с вероятни развития в машинното обучение. Тъй като AI се разширява в обхвата и обхвата си, дефектите ще имат все по-голямо въздействие, до голяма степен върху негативната страна на счетоводната книга “.

Антъни Съдия, автор, футуролог, редактор на Енциклопедията на световните проблеми и човешкия потенциал и бивш ръководител на Съюза на международните асоциации, каза: „ИИ ще предложи по-големи възможности. Моето усещане е, че ще даде възможност на мнозина (най-вероятно 1% до 30%) и ще обезвреди много (ако не и 99%). Особено проблематично ще бъде нивото на сложност, създадено за по-малко компетентните (особено възрастните хора), както е видно от данъчното облагане и банковите системи - въпроси, към които системните администратори са безразлични. За някои това ще бъде благодат - проактивни спътници (независимо дали за качествен диалог или секс). Сисадмините ще изграждат нещастни пристрастия. Ще липсва възможността за интердисциплинарност - както отдавна е възможно, но внимателно разработена по най-съмнителните причини за разделяне и управление. Мигащите подходи и слепите зони ще създадат сцена за неочаквани бедствия - в момента безспорно неразбираеми (ефект на Черния лебед). Предимствата за управлението ще бъдат под въпрос. По-добрият надзор ще бъде съмнително разрешен “.

Стефани Перин, президент на Digital Discretion, консултантска фирма за защита на личните данни, написа: „Има вероятност, предвид човешката склонност да идентифицира риска, когато гледа в неизвестното бъдеще, AI ще бъде използван за опит за прогнозиране на риска. С други думи, все по-задълбочено наблюдение ще се използва, за да се определи кой е добър гражданин (купувач, служител, студент и т.н.) и кой (е) лош. Това ще се окаже в системите за наблюдение в публичното пространство, системите за проверка на служителите (обърнете внимание на настоящото съдебно дело, където LinkedIn съди скрепери за данни, които предлагат да предскажат служители на „полет“), както и всички видове системи за управление на домовете и интелигентни автомобили. Въпреки че това може да въведе мярка за безопасност в някои приложения, въздействието на страха, което идва с несъзнаваното осъзнаване на наблюдението, ще има сериозно въздействие върху творчеството и иновациите. Нуждаем се от това творчество, когато се занимаваме с огромни проблеми в изменението на климата и обръщане на въздействието върху околната среда, така че съм склонен да бъда песимист по отношение на резултатите “.

Алистър Нот, доцент, специализирал когнитивни науки и изкуствен интелект в университета в Отаго в Дънидин, Нова Зеландия, написа: „ИИ има потенциал както за положителни, така и за отрицателни въздействия върху обществото. (Негативното въздействие се корени в) настоящото доминиране на транснационалните компании (и в частност технологичните компании) в глобалната политика. Тези компании вероятно ще усвоят по-голямата част от напредъка в технологията за изкуствен интелект - и е малко вероятно да разпространят ползата от този напредък в цялото общество. В момента сме свидетели на изключителна концентрация на богатство в ръцете на малка част от световното население. Това до голяма степен се дължи на интегрирането на неолиберализма в доминиращите икономики в света - но то се засилва от огромния успех на технологичните компании, които постигат огромни печалби с относително малка работна сила. Напредъкът на AI технологиите просто ще продължи тази тенденция, освен ако не се направят доста драконовски политически промени, които поставят транснационалните компании под правилен демократичен контрол “.

Ричард Форно, от Центъра за киберсигурност към Университета на Мериленд-Балтимор, пише, „AI е толкова„ умен “и ефективен, колкото могат да го направят създателите му. Ако изкуственият интелект в неща като алгоритмите на Facebook причинява толкова много проблеми сега, какво крие бъдещето? Проблемът е по-малко еволюцията на ИИ и повече за това как човечеството се развива и използва -чее мястото, където ще се развие истинската криза в AI “.

Сам Пънет, служител за изследвания и стратегии в TableRock Media, написа: „Преобладаването на системите, контролирани от AI, е проектирано да вземе събрани данни и да даде възможност за контрол. Повечето организации с ресурси за разработване на тези системи правят това, за да дадат предимства при търговски / финансови транзакции, ефективност на производството и надзор. Вече е доказано, че саморегулирането от страна на индустрията се проваля (напр. Платформи за социални медии и Wall Street). Държавните агенции изостават в своята воля и разбиране за последиците от технологията за ефективно прилагане на насоки за ограничаване на въздействието на непредвидени обстоятелства. Като такова, участието на правителството ще реагира на промените, които технологията ще донесе. Най-големият ми страх е разчитането на дефектни алгоритми, които освобождават отговорността, докато не се отчитат изключенията.

Луис Перейра, доцент по електроника и нанотехнологии, Universidade NOVA de Lisboa, Португалия, отговори: „Страхувам се, че ще се упражнява повече контрол и влияние върху хората, както започна в Китай. Ще има по-голяма разлика в богатството, ползите няма да се разпространят за всички и ще се развие кастова система, освен ако не бъде създаден нов социален договор, което е малко вероятно. Широко разпространеният бунт е правдоподобен “.

Ставрос Трипакис, доцент по компютърни науки в Университета Аалто във Финландия и допълнителен професор в Калифорнийския университет в Бъркли, пише „‘ 1984 г., Джордж Оруел, полицейска държава “.

Главен архитект на топ пет технологични компаниикоментира, „AI ще позволи на порочните режими да проследяват гражданите по всяко време. Грешната идентификация ще вкара невинни хора в затвора и дори ще ги екзекутира без надежда за обжалване. Като цяло ИИ ще има положителен принос само в истински демократични държави, които намаляват на брой “.

Джон Снядовски, директор на технологична компания, написа: „Тъй като технологията е създадена в момента, тя просто концентрира властта в по-малък брой международни корпорации. Това се нуждае от фиксиране, за да може всеки да спечели най-доброто от AI '.

Дейвид Брейк, старши преподавател по комуникации в Университета в Бедфордшир, Великобритания, каза: „Подобно на много колеги се страхувам, че ИИ ще бъде оформен като„ неутрален “и„ обективен “и по този начин ще се използва като прикритие за вземане на решения, които биха били считани за несправедливи, ако бъдат взети от човек. Ако не действаме, за да регулираме правилно използването на ИИ, няма да можем да разпитваме начините, по които се изгражда вземането на решения за ИИ, или да ги одитираме, за да гарантираме, че техните решения наистина са справедливи. Решенията също могат да се вземат (дори повече от днес) въз основа на широк набор от събрани данни и ако не сме внимателни, няма да можем да контролираме потоците от информация за нас, използвани за вземане на тези решения, или за коригиране на недоразумения или грешки, които могат следвайте ни безкрайно. Представете си, че сте обект на многократни проверки на документи, докато пътувате из страната, защото познавате редица хора, които са имигранти без документи и следователно вашите движения съответстват на профила на нелегален имигрант. И не сте сигурни дали да протестирате, защото не знаете дали такива протести могат да насърчат алгоритъм, който да ви постави в „подозрителна“ категория, която може да ви тормози още по-често “.

Дългогодишен ветеран на новаторска интернет компаниякоментира: „Мотивът за печалба и изкуственият интелект почти гарантират страдание за повечето хора. За специалните хора с богатство и власт обаче трябва да е пикантно. Наблюдението как се създават машини, за да се осигури пристрастяване (за показване на реклами) е напомняне, че експлоатацията, ориентирана към печалба, винаги е на първо място. Тласъкът и за автомобилите без шофьор е тласък за увеличаване на печалбите “.

Джошуа Лофтус, асистент по информационни, операционни и управленски науки в Нюйоркския университет и съавтор на „Противоречива справедливост в машинното обучение“, коментира: „Как новите технологии са оформили живота ни в миналото? Зависи от закона, пазарната структура и кой притежава политическа власт. В настоящата ера на екстремно неравенство и климатична катастрофа очаквам технологиите да се използват от работодателите, за да направят отделните работници по-изолирани и непредвидени, от приложенията, за да направят потребителите по-зависими за секунда на секунда, и от правителствата за наблюдение и все по-строг граничен контрол “.

Юджийн Х. Спафорд, пионер в интернет и основател и изпълнителен директор на Центъра за образование и изследвания в областта на информационното осигуряване и сигурност, коментира: „Без активен контрол и ограничения, първичните възприемачи на системите за ИИ ще бъдат правителствата и големите корпорации. Използването им ще бъде да доминират / контролират хората и това няма да направи живота ни по-добър “.

Майкъл Мюлер, изследовател в групата за взаимодействие на AI за глобален доставчик на технологични решения, каза, че това ще остави някои хора в по-добро състояние, а други не, пишейки: „За богатите и овластени AI ще им помогне в ежедневието им - и вероятно ще помогне да ги увеличат богатството и властта си. За останалите от нас очаквам, че ИИ ще помогне на богатите и овластени хора да ни наблюдават, да ни манипулират и (в някои случаи) да ни контролират или дори да ни затворят. За тези от нас, които нямат умения да преминат към работни места, свързани с ИИ, мисля, че ще намерим работа оскъдна и без протекции. Според мен AI в най-добрия случай ще бъде смесена и пресечна благословия “.

Есте Бек, асистент в Тексаския университет в Арлингтън и автор на „Теория на убедителните компютърни алгоритми за изучаване на риторични кодове“, отговори: „Техническият дизайн и политика засягат толкова много нашата поверителност в САЩ, така че повечето хора не мислят за проследяване на движенията, поведението и нагласите от смартфони, социални медии, търсачки, доставчици на интернет услуги (доставчици на интернет услуги) и дори устройства с активиран интернет на нещата. Докато технологичните дизайнери и инженери не вградят поверителност във всяко решение за дизайн и политика за потребителите, всеки напредък в сътрудничество човек-машина / изкуствен интелект ще остави потребителите с по-малко сигурност и поверителност “.

Майкъл Х. Голдхабър, автор, консултант и теоретичен физик, който е написал ранни изследвания на икономиката на цифровото внимание, каза: „За тези, които нямат интернет връзка сега, нейното разширяване вероятно ще бъде положително като цяло. В останалата част ще видим нарастваща надпревара във въоръжаването между използването на контрол, разрушителния анархизъм, расизма и т.н. и ad hoc усилията отдолу за насърчаване на социални и екологични блага. Организациите и държавите ще търсят повече контрол, за да блокират много различни вътрешни или външни атаки. Комбинираните борби ще заемат все по-голям дял от вниманието, усилията и т.н. Съмнявам се, че през следващите десетина години ще се появи някакъв много жизнеспособен и демократичен, егалитарен ред и - дори в по-голям срок - добрите резултати далеч не са гарантирани “.

Дейв Бърстейн, редактор и издател в Fast Net News, каза: „Има твърде много второкласен ИИ, който взема лоши решения въз основа на неадекватно статистическо разбиране. Например условно освобождаване или осъждане на изкуствен интелект вероятно ще намери връзка между израстването в домакинство с самотни родители и вероятността да извърши друго престъпление. Объркващи променливи, като бедността на толкова много самотни майки, трябва да се разберат и да се справят. Вярвам, че е погрешно някой да бъде изпратен в затвора по-дълго, защото баща му е напуснал. Този вид проблем, объркващи променливи и неадекватността на „преобладаващите“ данни, е почти повсеместен в ИИ на практика “.

Ян Питър, пионер интернет активист и защитник на интернет права, каза: „Натрупването на лични данни достига точка, в която неприкосновеността на личния живот и свободата от неоправдано наблюдение изчезват. В допълнение, алгоритмите, които контролират използването на такива данни, стават все по-сложни, което води до неизбежни изкривявания. Хенри Кисинджър може би не е бил далеч от целта, когато описва изкуствения интелект като водещ към „Краят на ерата на Просвещението“.

Майкъл Цимер, доцент и учен по етика на неприкосновеността на личния живот и информацията в Университета на Уисконсин, Милуоки, коментира: „Все повече се притеснявам, че управляваното от ИИ вземане на решения ще запази съществуващите обществени пристрастия и несправедливости, като същевременно прикрива тези вреди под фалшивото убеждение, че такива системи са“ неутрален '.'

Мартин Шелтън, професионален технолог, коментира: „Има много видове изкуствен интелект - някои видове, разчитащи на предварително зададени правила, за да изглеждат„ умни “, а други, които реагират на променящите се условия в света. Но тъй като AI може да се използва навсякъде, където можем да разпознаем модели, потенциалните приложения на изкуствения интелект са доста големи. Въпросът е как ще се използва? ... Въпреки че тези инструменти ще станат по-евтини и по-широко разпространени, можем да очакваме, че - като смартфони или уеб свързаност - тяхното използване ще се обуславя предимно от търговски интереси. Започваме да виждаме ранните признаци на AI, който не успява да направи интелигентни прогнози в по-голям институционален контекст. Ако Amazon не успее да предложи правилно правилния продукт в бъдеще, всичко е наред. Веднъж си купихте раница и сега Amazon мисли, че искате повече раници, завинаги. Ще се оправи. Но понякога тези решения имат огромни залози. ProPublica документира как автоматизираният софтуер за „оценка на риска“, използван в американските процедури за присъди, е само малко по-точен при прогнозиране на рецидив, отколкото обръщане на монета. По същия начин болниците, използващи IBM Watson, за да правят прогнози за лечение на рак, намират, че софтуерът често дава съвети, които хората не биха. За да смекчим вредата в ситуации с високи залози, трябва критично да разпитаме как нашите предположения относно нашите данни и правилата, които използваме за създаване на нашия AI, насърчават вредата “.

Найджъл Хиксън, експерт по разработване на технологична политика за ICANN със седалище в Брюксел, отговори: „Оптимист съм, че ИИ ще се развива по начин, който е от полза за обществото, като подобрява процесите и дава на хората по-голям контрол върху това, което правят. Това обаче ще се случи само ако технологиите са внедрени по начин, който е от полза за всички. Страхувам се, че в недемократичните страни ИИ ще намали свободата, избора и надеждата “.

Виан Бакир, професор по политическа комуникация и журналистика в университета Бангор, отговори: „Песимистичен съм по отношение на бъдещето при този сценарий поради случилото се до момента с ИИ и наблюдението на данни. Например, неотдавнашният фурор по фалшиви новини / дезинформация и използването на сложен анализ на данни в референдума за Брекзит във Великобритания през 2016 г. и в президентските избори в САЩ през 2016 г. Да се ​​разбере, да се влияе и да се насочват към хора, за да се опитат да ги накарат да гласуват по определен начин, е дълбоко недемократично. Това показва, че настоящите политически участници ще използват технологията за лични / политически печалби, независимо от по-широките социални норми и изборни правила. Няма доказателства, че настоящите лоши практики няма да бъдат възпроизведени в бъдеще, особено след като всяка нова вълна от технологичен прогрес надхвърля способността на регулаторите да се справи и способността на хората да разберат какво се случва с тях и техните данни. Освен това и свързаните с това възможности за масово наблюдение на данни в частни и обществени пространства непрекъснато се разширяват и тяхното усвояване в държави със слаби органи на гражданското общество и минимално регулиране на поверителността е обезпокоително. Накратко, доминиращите глобални технологични платформи не показват признаци на жертване на своите бизнес модели, които зависят от натрупването на все повече количества данни за живота на хората, а след това към хипернасочването им с търговски съобщения; а в целия свят политическите участници и държавните агенции за сигурност и разузнаване също се възползват от такива придобивания на данни, като често заобикалят защитните мерки за поверителност или законовите ограничения “.

Tom Slee, старши продуктов мениджър в SAP SE и автор на „What’s Yours is Mine: Against the Sharing Economy“, написа, „Много аспекти от живота ще бъдат улеснени и по-ефективни от AI. Но преместването на решение като здравеопазване или изпълнение на работното място към AI го превръща в решение, управлявано от данни, задвижвано от оптимизация на някаква функция, което от своя страна изисква повече данни. Приемането на застрахователни рейтинги, управлявани от изкуствен интелект, например, изисква все повече и повече данни за начина на живот от застрахованите, за да се получат точни общи оценки. Оптимизираните решения, базирани на данни за живота ни, неизбежно изискват наблюдение и след като изборът ни на начин на живот стане принос за такива решения, ние губим индивидуална автономия. В някои случаи можем да игнорираме това събиране на данни, но сме в началото на решенията, управлявани от ИИ: До 2030 г. се страхувам, че загубата ще бъде много по-голяма. Надявам се да греша “.

Тимъти Греъм, постдокторант по социология и компютърни науки в Австралийския национален университет, коментира: „Вече има експлозия на изследванията за„ справедливост и представителност “в ML (и конференции като справедливост, отчетност и прозрачност в машинното обучение), тъй като е трудно да се проектират системи, които не просто възпроизвеждат съществуващото социално неравенство, неравностойно положение и предразсъдъци. Некритичното внедряване на такива системи само ще доведе до съвсем по-лошо положение за много хора, докато сравнително малък брой ползи “.

Старши изследовател и програмист за голям глобален мозъчен тръсткоментира: „Очаквам AI да бъде вграден в системи, инструменти и т.н., за да ги направи по-полезни. Притеснявам се обаче, че ролята на AI в процеса на вземане на решения ще доведе до по-крехки процеси, при които изключенията са по-трудни от днешните - това не е добро нещо “.

Джени Мечем, респондент, който не предостави подробности за идентифициране, каза: „Двете ми основни причини да кажа, че напредъкът в AI няма да бъде от полза за повечето хора до 2030 г. са, първо, ще продължи да има огромни неравенства в това, кой се възползва от тези аванси, и второ, ако развитието на AI се контролира от субекти с нестопанска цел, ще има огромни скрити разходи и хората ще получат контрол над огромни области от живота си, без да осъзнават ... Примерите на Facebook като фалшива общност, обща за извличане на данни от потребителите и на всеобхватната интернет цензура в Китай трябва да ни научи, че нито на корпорациите с нестопанска цел, нито на правителството може да се има доверие да ръководят технологиите по начин, който наистина е от полза за всички. Демократичните правителства, които прилагат интелигентни разпоредби, както е направил Европейският съюз по отношение на неприкосновеността на личния живот, може да дадат най-добрата надежда “.

Сусо Балеато, сътрудник в Института за количествени социални науки на Харвардския университет и свръзка с Комитета за политика на цифрова икономика на Организацията за икономическо сътрудничество и развитие (ОИСР), коментира: „Рамката на интелектуалната собственост пречи на необходимата отчетност на основните алгоритми и липсата на ефективни преразпределителни икономически политики ще продължи да засилва пристрастията на наборите от данни “.

За съжаление най-вероятно е ИИ да бъде разгърнат по начини, които задълбочават съществуващото структурно неравенство по линия на раса, клас, пол, способности и т.н. Саша Костанца-Чок

Саша Костанца-Чок, доцент по граждански медии в Масачузетския технологичен институт, каза: „За съжаление най-вероятно е ИИ да бъде разгърнат по начини, които задълбочават съществуващото структурно неравенство по линия на раса, клас, пол, способности и т.н. Малка част от човечеството ще спечели много от ИИ, докато по-голямата част ще изпитат ИИ чрез ограничения върху житейските шансове. Въпреки че е възможно да проектираме системи за изкуствен интелект, за да подобрим социалната справедливост, сегашната ни траектория ще засили историческото и структурно неравенство “.

Поредната зелена баниала, Главен изпълнителен директор и регулатор на Телекомуникационния и радиокомуникационен регулатор на Вануату, написа: „Често машинните решения не дават точен резултат, те не отговарят на очакванията или специфичните нужди. Например приложенията обикновено се измислят, за да се насочат към пазара на развития свят. Те може да не работят по подходящ начин за страни като нашата - малки острови, разделени от големи води “.

Michiel Leenaars, директор по стратегията в фондация NLnet и директор на холандската глава на Интернет обществото, отговори: „Постигането на доверие не е истинският проблем; постигането на надеждност и реално овластяване на индивида е. Тъй като технологията, която до голяма степен определя информационното Аз, изчезва - или на практика се извежда извън местния контрол, преминавайки „под земята“ под перфектния предлог за нужда от мрежов ИИ - балансът между социалното благосъстояние и човешкия потенциал на от една страна, а корпоративната етика и опортюнистичните бизнес решения, от друга, трябва да бъдат нарушени. Следвайки типичния сценарий за вземане на всички победители, за които е известно, че Интернет създава, очаквам, че различните сфери на интернет ще станат още по-малко прозрачни и по-манипулативни. За по-голямата част от хората (особено в недемократичните държави) вече има малък реален избор, освен да се движат и да се придвижват заедно с масите “.

Майк О’Конър, пенсиониран технолог, който е работил в ICANN и по национални широколентови въпроси, коментира: „Чувствам„ съжаление в интернет-пионер “за интернет на S ***, който произтича от работата, която свършихме през последните няколко десетилетия . Активно работя за намаляване на зависимостта си от устройства, свързани с интернет, и количеството данни, които се събират за мен и семейството ми. Със сигурност ще работя еднакво усилено, за да избегна човешки / AI устройства / връзки. Искрено се надявам, че съм напълно доказано грешен в това мнение, когато пристигне 2030 г. “.

Люк Старк, сътрудник в катедрата по социология в Дартмутския колеж и в Центъра за интернет и общество „Беркман Клайн“ на Харвардския университет, пише: „AI технологиите рискуват да осигурят цялостна инфраструктура за корпоративно и държавно наблюдение, по-подробна и всеобхватна от която и да е предишна такъв режим в човешката история “.

Зоетания Суджон, старши преподавател, специализиран в дигиталната култура в Университета по изкуствата в Лондон, коментира: „Както ни показва историята на толкова много технологии, ИИ няма да бъде магическото решение на проблемите в света или на символичните и икономически неравенства. Вместо това, AI е в най-голяма полза за тези с най-голяма мощност “.

Лари Ланом, пионер в интернет и вицепрезидент в Корпорацията за национални изследователски инициативи (CNRI), каза: „Надявам се, че мрежовото взаимодействие човек-машина ще подобри общото качество на живот. ... Страхът ми: Ще се възползват ли всички предимства на по-мощните изкуственият интелект е от полза за човешката раса като цяло или просто тънкият слой на върха на социалната йерархия, който притежава новите модерни технологии “?

Професор и изследовател в AI със седалище в Европаотбеляза, „Използването на технологични възможности, базирани на ИИ, ще създаде у хората впечатлението, че имат повече мощ и автономия. Тези възможности обаче ще бъдат достъпни в контексти, вече рамкирани от мощни компании и държави. Няма истинска свобода. За добрите и за лошите “.

Анонимен респондентказа: „Само в областта на здравеопазването ще има огромни ползи за тези, които могат да си позволят лекарства, използващи ИИ. Но в същото време има огромен потенциал за разширяване на неравенството и за злоупотреба. Вече можем да видим върха на този айсберг, тъй като днес здравноосигурителните компании натрупват лесно достъпни, лошо защитени данни на трети страни, които ще бъдат използвани за дискриминация “.

ДА СЕ старши анализатор на данни и специалист по системи в сложни мрежиотговори: „Софтуерът за изкуствен интелект ще изпълнява приоритетите на субектите, финансирали разработването на софтуера. В някои случаи това (ще бъде) обща услуга, продавана на широката общественост (колкото сега разполагаме със софтуер за планиране на маршрути в GPS устройства), и това ще осигури определена полза за потребителите. В други случаи софтуерът ще работи в полза на голяма компания, но в ущърб на потребителите (например, изчисляване на цена за продукт, която ще бъде най-високата, която даден клиент е готов да плати). Още в трета категория софтуерът ще осигури ефективно вземане на решения в области, вариращи от медицина до инженерство, но ще го направи с цената на извеждане на хората от работа “.

Най-голямата ми грижа е отговорното събиране на информация и нейното използване. Информацията може да се злоупотребява по много начини, както виждаме днес. Изявен инженер в една от най-големите световни компании за изчислителен хардуер

Известен инженер в една от най-големите световни компании за компютърен хардуеркоментира, „Технологиите ще продължат да бъдат интегрирани в живота ни по безпроблемен начин. Най-голямата ми грижа е отговорното събиране на информация и нейното използване. Информацията може да се злоупотребява по много начини, както виждаме днес “.

Защитник на цифровите правакоментира, „AI вече (по-специално чрез расово признание) технологично изпира дългогодишни и всеобхватни пристрастия в контекста на полицейското наблюдение. Без алгоритмична прозрачност и прозрачност на данните за обучение, ИИ могат да се огъват за всякакви цели “.

Следните еднопосочни линии от анонимни респонденти също се обвързват с тази тема:

  • Дългогодишен икономист за водеща световна технологична компанияпрогнозира, 'Упадъкът на неприкосновеността на личния живот и увеличаването на наблюдението'.
  • Журналист и водещ интернет активистпише, „Компютърният AI ще бъде от полза за потребителите му само ако е собственост на хора, а не„ икономически AI “(т.е. корпорации).
  • Консултант по стратегиинаписа, „Проблемът е в достъпа. AI ще се използва за консолидиране на властта и ползите за онези, които и без това са богати, и по-нататъшно наблюдение, лишаване от права и направо ограбване на останалите 99% от света “.
  • Анализатор на политики за основен доставчик на интернет услугиказа, „Просто трябва да внимаваме какви данни се използват и как“.
  • Професор по информационни наукинаписа, „Ще бъдат разработени системи, които не защитават поверителността и сигурността на хората“.
  • Основател на фирма за технологични изследванияпише, „Неолибералните системи функционират, за да привилегират корпорациите над индивидуалните права, като по този начин AI ще се използва по начини за ограничаване, ограничаване, категоризиране - и, да, ще има и положителни ползи“.
  • Професор по електротехника и компютърно инженерство със седалище в Европакоментира: „Проблемът е в човешката природа. Най-мощните ще се опитат да използват ИИ и технологии, за да увеличат своята сила, а не в полза на обществото “.

Други анонимни респонденти коментираха:

  • „Паноптикумът и нашествието във всички лични аспекти на живота ни вече са завършени“.
  • „AI ще позволи по-голям контрол от организираните сили на тиранията, по-голяма експлоатация от организираните сили на алчността и ще отвори кутията на Пандора на бъдещето, с което ние като вид не сме достатъчно зрели, за да се справим с тях“.
  • „Комбинацията от широко разпространена свързаност на устройства и различни форми на AI ще осигури по-приятно ежедневно изживяване, но за сметка на още по-нататъшна загуба на поверителност“.
  • „Имам два страхове 1) загуба на неприкосновеност на личния живот и 2) изграждане на„ чуплива “система, която се проваля катастрофално“.
  • „AI стратегическите решения с най-голямо влияние се взимат от корпорации и те не целят човешко благосъстояние в противовес на корпоративната рентабилност“.
  • „Данните са твърде контролирани от корпорации, а не от физически лица и неприкосновеността на личния живот ерозира, тъй като опциите за наблюдение и преследване стават непроверени“.
  • „Възможностите не се споделят еднакво, така че тенденцията ще бъде към наблюдение от страна на онези, които имат власт за достъп до инструментите; словесното и визуалното се съчетават с капацитет за сортиране и фокусиране на масите от данни “.
  • „Познавайки човечеството, предполагам, че особено богатите, белите мъже ще бъдат по-добре, докато останалата част от човечеството ще страда от това“.

Преместването на човешки работни места от ИИ ще разшири икономическите и цифровите разделения, което може да доведе до икономически и социални сътресения

Един от основните опасения относно днешната технологична промяна е възможността автономните хардуерни и софтуерни системи да доведат до загуба на работа на милиони хора в световен мащаб и в резултат на това средствата им за осигуряване на жизнени нужди и участие в обществото. Много от тези експерти казват, че заедно с растежа на ИИ ще се появят нови работни места, точно както те са се случвали по време на почти всеки човешки преход към нови инструменти.

Брад Темпълтън, председател на изчислителната техника в университета Singularity, каза: „Въпреки че очевидно ще има добри и лоши, широката история на технологиите за автоматизация е положителна, дори когато става въпрос за работни места. Днес има повече работа от всякога в историята “.

Бен Шнайдерман, изтъкнат професор и основател на лабораторията за човешко компютърно взаимодействие в Университета в Мериленд, каза: „Автоматизацията е до голяма степен положителна сила, която увеличава производителността, намалява разходите и повишава жизнения стандарт. Автоматизацията разширява търсенето на услуги, като по този начин увеличава заетостта, което се случи в Amazon и FedEx. Моята позиция е в противоречие с тези, които вярват, че роботите и изкуственият интелект ще доведат до широко разпространена безработица. С течение на времето мисля, че стратегиите за изкуствен интелект / машинно обучение ще станат просто инструменти, вградени във все по-сложни технологии, за които човешкият контрол и отговорност ще станат по-ясни “.

Робърт Д. Аткинсън, президент на Фондация за информационни технологии и иновации, писа за това как напредъкът в ИИ е от съществено значение за разширените възможности за работа: „Развитият свят е изправен пред безпрецедентно забавяне на производителността, което обещава да ограничи напредъка в жизнения стандарт. ИИ има потенциала да играе важна роля за повишаване на производителността и жизнения стандарт “.

Тоби Уолш, професор по изкуствен интелект в Университета на Нов Южен Уелс в Австралия и президент на фондацията за изкуствен интелект, каза: „В краткосрочен план съм песимист - виждаме, че вече се използват технологии като изкуствен интелект, за да влошат живота на мнозина - но съм оптимист в дългосрочен план, че ще измислим как да накараме машините да правят мръсно, скучно, опасно и трудно и ще ни оставят свободни да се съсредоточим върху всички по-важни и човешки части от живота ни.

И все пак много други не са съгласни. Някои се страхуват от колапса на средната класа и социалния и икономически сътресения, ако по-голямата част от световната икономическа сила се държи от шепа технологични бегемоти, които събират големия дял от финансови ползи в дигиталната ера, като наемат много по-малко хора от водещите компании от индустриалната епоха. Доста голям дял от тези експерти предупреждават, че ако сега не бъдат предприети стъпки за приспособяване към това потенциално бъдеще, радикалното намаляване на човешкия труд на AI ще бъде опустошително “.

Дейвид Кейк, лидер на Electronic Frontiers Australia и заместник-председател на Съвета за подкрепа на организациите за генерични имена на ICANN, написа: „Най-големият страх е, че социалните смущения поради променящите се модели на заетост ще се справят зле и ще доведат до широко разпространени социални проблеми“.

Джери Михалски, основател на „Икономика на взаимоотношенията“, каза: „Ние сме далеч от това да се откажем от по-добър социален договор. В един по-справедлив свят AI може да доведе до утопии. Много сили обаче ни тласкат в обратната посока. 1) Бизнесът прави всичко възможно, за да елиминира служителите на пълен работен ден, които се разболяват и капризят, имат нужда от пенсионни сметки и повишения, докато софтуерът става по-добър и по-евтин. Прекариатът ще расте. 2) Софтуерът е като бактерия, която яде плът: Задачите, които яде, изчезват от пейзажа на заетостта. За разлика от предишните технологични скокове, този дава работа на хората по-бързо, отколкото можем да ги преквалифицираме и преназначим. 3) Нашата предпазна мрежа е ужасна и нашите убеждения относно човешките мотивации са гадни. 4) Потребителството все още движи желанията и очакванията “.

Джеймс Хендлър, професор по компютърни, уеб и когнитивни науки и директор на Политехническия институт за изследване и приложение на данни Rensselaer, написа: „Вярвам, че 2030 г. ще бъде точка в разгара на бурното време, когато AI подобрява услугите за много хора, но ще бъде и време на големи промени в обществото, основани на промени в моделите на работа, причинени до голяма степен от ИИ. От една страна, например, лекарите ще имат достъп до информация, която понастоящем им е трудно да извлекат бързо, което води до по-добро медицинско обслужване за тези, които имат покритие, и наистина в някои страни първата точка за контакт в медицинска ситуация може да бъде да бъде AI, което ще помогне при ранни диагнози / предписания. От друга страна, в продължение на няколко поколения, започвайки в не толкова далечното бъдеще, ще видим значителни промени в работната сила не само с работни места, но и с много загубени работни места. Много от тях няма да бъдат хора, „заменени“ с ИИ, а по-скоро резултат от по-малък брой хора, които могат да изпълняват същото количество работа - например в професии като адвокати, асистенти на лекари и много други в момента квалифицирани длъжности бихме проектирали нужда от по-малко хора (дори когато търсенето нараства “).

Бетси Уилямс, изследовател от Центъра за цифрово общество и изследвания на данни към Университета в Аризона, написа, „Ползите от AI ще бъдат неравномерно разпределени в обществото. Малцина ще извлекат значими ползи. Големите предприятия ще използват AI, за да доставят незначителни подобрения в обслужването на своите клиенти, с цената на изискването за повече данни и рисковите грешки. Тенденциите в заетостта от компютъризацията ще продължат. AI ще застрашава работни места със средни умения. Вместо да разчитат на човешки опит и познания за контекста, много задачи ще се обработват директно от клиенти, използващи AI интерфейси, или от по-нискоквалифицирани хора на работни места в услуги, подсилени от AI. AI ще навреди на някои потребители. Например богатите потребители ще се възползват от самоуправляващите се автомобили, докато други трябва да плащат, за да модернизират съществуващите автомобили, за да станат по-видими за AI. Чрез законно маневриране автомобилните компании за самоуправление ще избегнат много застрахователни разходи и рискове, като ги пренасочат към хора шофьори, пешеходци и велосипедисти. В образованието създаването на висококачествени автоматизирани инструкции изисква опит и пари. Изследванията на американските класни стаи K-12 предполагат, че типичните компютърно подпомогнати инструкции дават по-добри резултати от теста, отколкото инструкциите на най-лошите учители. До 2030 г. повечето ИИ, използвани в образованието, ще бъдат със средно качество (за някои тяхната най-добра алтернатива). Децата на богатите и могъщите няма да използват ИИ в училище; вместо това те ще бъдат научени да го използват. За да може ИИ значително да се възползва от мнозинството, той трябва да бъде разположен в спешни здравни грижи (където по-бързата лабораторна работа, прегледите на медицинските анамнези или потенциалните диагнози могат да спасят животи) или в помощната дейност (да речем, за да координира доставката на изтичащи храни или лекарства от донори до получатели в нужда “).

Натаниел Боренщайн, главен учен в Mimecast, пише: „Социалните анализи на тенденциите в областта на ИТ (информационните технологии) непрекъснато преувеличават човешките ползи от тази технология и подценяват негативните ефекти. ... Предвиждам свят, в който ИТ и така нареченият ИИ създават непрекъснато нарастващ набор от незначителни ползи, като същевременно подкопава човешката свобода на действие и неприкосновеността на личния живот и подкрепя авторитарните форми на управление. Виждам също потенциал за много по-лош резултат, при който нарастването на производителността, произведено от технологията, се натрупва почти изцяло до няколко, увеличавайки разликата между богатите и бедните, като същевременно не успява да се справи със социалните проблеми, свързани с неприкосновеността на личния живот. Но ако успеем да намерим начин да гарантираме, че тези ползи се споделят по равно между населението, все още може да се окаже, че цялостният ефект на технологията е от полза за човечеството. Това обаче ще се случи само ако успеем да ограничим ролята на богатите при определянето на начина, по който ще бъдат разпределени плодовете на повишената производителност “.

Андреа Ромаоли Гарсия, международен адвокат, активен в дискусиите за управление на интернет, коментира: „ИИ ще подобри начина, по който хората вземат решения във всички отрасли, защото позволява незабавен достъп до множество информация. Хората ще се нуждаят от обучение за това бъдеще - образователно и технологично развитие ... Това е много високо ниво на човешко развитие, до което бедните страни нямат достъп. Без подходящо образование и политики те няма да имат достъп до богатство. Резултатът може да бъде множество гладни и отчаяни хора. Това може да е мотивация за войни или нахлуване в границите. Бъдещото взаимодействие човек-машина (AI) ще бъде положително само ако по-богатите страни разработят политики, които да помогнат на по-бедните страни да се развият и да получат достъп до работа и богатство “.

Джош Калдър, партньор в Алианса за прогнозиране, коментира: „Най-голямата опасност е масовото разселване на работниците, особено на развиващите се пазари“.

Джеф Джонсън, професор по компютърни науки в Университета в Сан Франциско, преди това с Xerox, HP Labs и Sun Microsystems, отговори: „Вярвам, че напредъкът в AI ще остави много повече хора без работа, което ще увеличи социално-икономическите различия в обществото, но други фактори биха могли да помогне за смекчаване на това, например приемане на гарантиран доход “.

Алън Бънди, професор по автоматизирани разсъждения в Университета в Единбург, написа: „Неквалифицираните хора ще страдат, защото за тях няма да има много работа. Това може да създаде смущения в обществото, някои от които вече видяхме с Тръмп, Брекзит и т.н. “.

Питър Левайн, асоцииран декан за научни изследвания и професор по гражданство и обществени дела в колежа за граждански живот Tisch на университета Tufts, написа: „Да бъдеш пълноправен гражданин традиционно зависи от работата. Притеснявам се, че нарастващите нива на безработица ще намалят гражданската ангажираност. Освен това AI е политически мощен и дава право на хората и правителствата, които го притежават. По този начин това може да увеличи неравенството и да засили авторитаризма “.

Хората с по-високи нива на интелект могат да оцелеят през тази епоха, а тези в долните краища на спектъра на умствената проницателност биха били направени ненужни.

Хасаан Идрис, електроинженер и Fulbright Scholar, активен в създаването на енергийни системи за глобално благо, коментира: „Вярвам, че взаимодействието човек-машина ще бъде по-скоро полезно и по-малко фантастично, както казва научната фантастика. Хората няма да имат нужда да посещават своите лекари лично, техните автоматизирани лекари правят това без значение. По същия начин рутинните дейности на работното място като обработка на данни и криниране на финансови номера ще се извършват от AI. Хората с по-високи нива на интелект могат да оцелеят през тази епоха и тези в долните краища на спектъра на умствения нюх биха станали ненужни “.

Ethem Alpaydın, професор по компютърно инженерство в Университета Богазичи в Истанбул, отговори: „Както при другите технологии, предполагам, че ИИ ще благоприятства развитите страни, които всъщност развиват тези технологии. ... За развиващите се страни обаче, чиято работна сила е предимно неквалифицирана и чиято износът е до голяма степен нискотехнологичен, AI предполага по-висока безработица, по-ниски доходи и повече социални вълнения. Целта на изкуствения интелект в такива страни трябва да бъде да се добавят умения към работната сила, вместо да се заменят с тях “.

Сам Ладнър, бивш изследовател на UX за Amazon и Microsoft, сега допълнителен професор в колеж по изкуства и дизайн в Онтарио, пише: „Технологията не е неутрален инструмент, а такъв, върху който са отпечатани съществуващите ни предизвикателства. Неравенството е високо и нараства. Твърде много компании отказват на служителите си шанс да работят достойно, независимо дали чрез предоставяне на значими неща за вършене или чрез основни средства за живот. AI ще бъде поставен върху тази съществуваща структура. Тези, които вече имат достойна работа с основен доход, ще видят това подобрено; тези, които са рутинно инфантилизирани или отказани основни права, ще видят това усилено. Някои може да попаднат в последната категория, тъй като работата им се заменя по-лесно с изкуствен интелект и машинно обучение “.

Джонатан Свердлов, консултант и специалист по системи за данни за Driven Inc., написа: „Колкото повече разчитаме на AI, толкова повече сме в милостта на разработчиците му. Въпреки че AI има способността да увеличава професионалистите и да взема решения, аз имам три опасения, които ме карат да вярвам, че няма да ни остави по-добре до 2030 г. Това не се отнася до опасенията, че нещо, което се изпълнява чрез AI, може да бъде хакнато и променено от недобросъвестни трети партии. 1) Докато не се постигне какъвто и да е вид самоуправляема AI чувствителност, той ще страда от значителен GIGO (входящ, изхвърлен боклук) проблем. Тъй като AI, както е замислено в момента, знае само на какво се преподава, наборите от семена за обучение трябва да бъдат обмислени в детайли, преди инструментите да бъдат внедрени. Въз основа на опита с Microsoft’s Tay и някои отговори, които съм чувал от робота Sophia, съм загрижен, че AI ще увеличи хуманитарните недостатъци. 2) Различен достъп. Освен ако разходите за разработване на изкуствен интелект спаднат рязко - и може, тъй като един инструмент за изкуствен интелект може да бъде използван за изграждане на по-евтини инструменти за изкуствен интелект - достъпът до каквито и да е предимства, които инструментите ще донесат, вероятно ще бъде групиран сред няколко бенефициента. Разглеждам това като високочестотна търговия на Уолстрийт. Тези, които могат, правят. Тези, които не могат, губят. 3) Инструмент за контрол. Ако AI се използва за вземане на граждански или корпоративни решения, тези, които контролират алгоритмите, контролират всичко. В САЩ наскоро видяхме как имиграционното и митническото налагане променят своя алгоритъм на облигации, за да задържат винаги във всеки случай “.

Стюарт А. Умпли, професор и директор на изследователската програма за социално и организационно обучение в университета Джордж Вашингтон, написа: „Хората, които използват ИИ и интернет, ще подобрят живота си от тези технологии. Хората, които не ги използват, ще бъдат все по-отдалечени от възможностите. Тъй като цифровият свят става по-сложен и отдалечен от реалния опит, ще нараства необходимостта хората и софтуерът да правят връзки. Ще има нужда от методи за разграничаване на реалния свят от света на измамите “.

Симеон Йейтс, директор на Центъра за дигитални хуманитарни и социални науки към Университета в Ливърпул, каза: „ИИ просто ще увеличи съществуващите неравенства - той, както и Интернет, ще се провали в своето еманципиращо обещание“.

Панайотис Т. Метаксас, автор на „Технологии, пропаганда и граници на човешкия интелект“ и професор по компютърни науки в колежа Уелсли, отговори: „Ще има много богатства, които ще произвеждат устройствата, поддържани от AI. Новите технологии ще направят по-лесно и по-евтино масовото производство на храна и развлечения („хляб и цирк“). Това богатство няма да бъде разпределено равномерно, увеличавайки финансовата разлика между най-големия малък процент от хората и останалите. Въпреки че това богатство няма да бъде разпределено равномерно, (относително малкият) дял, даден на по-голямата част от хората, ще бъде достатъчен, за да подобри състоянието им (2018 г.). В това отношение по-голямата част от хората ще бъдат в по-добро състояние, отколкото са днес. Те може да не се чувстват по-добре, ако са били наясно с неравенствата в сравнение с най-добрите бенефициенти, но няма да са наясно с тях поради контролирана пропаганда. За съжаление няма да могат да направят много за увеличените неравенства. Технологиите на полицейското прилагане от роботи и липсата на лична комуникация ще им направи невъзможно да се организират, да се оплакват или да настояват за промяна. Те няма да бъдат оценявани като работници, граждани или войници. Желанието за демокрация, каквато я познаваме днес, ще приключи. Мнозина ще се чувстват депресирани, но медицинските продукти ще им улеснят да увеличат удоволствието и да намалят болката “.

Грейс Мутунг’у, съ-ръководител на Кенийската мрежа за действие в областта на ИКТ, отговори: „Новите технологии по-вероятно ще увеличат настоящите неравенства, освен ако няма промяна в световната икономика. От опита на работата на ООН по Целите на хилядолетието за развитие, въпреки че се наблюдава подобрение на качеството на живот като цяло, страните с ниски и средни доходи все още страдат от неравенства. Това вероятно ще доведе до проблеми с управлението. Във всеки случай правителствата в тези страни инвестират сериозно в наблюдение, което вероятно ще има по-негативни последици за обществото “.

Дани Гилън, нетизен от Лафайет, Луизиана, коментира: „Технологиите обещават толкова много, но доставят толкова малко. Facebook ни даде възможността да поддържаме връзка с всички, но жертвахме своята цялост и личната си информация в търсене на долара. Обещанието, че нашите медицински записи ще бъдат дигитализирани и по-лесно споделяни и ще намалят разходите, все още не се е осъществило в световен мащаб. Основните двигатели на AI иновациите и приложенията ще бъдат компании с идеална цел, които са показали, че техният алтруизъм се простира само до най-долните им редове. Подобно на повечето иновации, очаквам ИИ да остави бедните ни дори по-бедни, а богатите ни - още по-богати, увеличавайки броя на първите, като същевременно консолидира властта и богатството си във все по-намаляваща група от понастоящем богати хора “.

Професионалист, работещ върху определянето на уеб стандартипише, „Гледайки напред след 12 години, очаквам, че ИИ ще подобри качеството на живот на някои части на някои популации, а в някои ситуации, като същевременно ще влоши качеството на живот на други. AI все още ще бъде с неравномерно качество и неравномерно достъпни в различни части на обществото. Защитата на поверителността и сигурността ще бъде неадекватна; пристрастията към данните ще остане често срещана; много технологии и модели на реагиране ще бъдат нормирани към нуждите на потребителя на „общия знаменател“ и ще идентифицират погрешно или погрешно интерпретират взаимодействията с хора с увреждания или, ако е подходящо идентифициране на тяхното увреждане, ще изложат тази информация без съгласието или контрола на потребителя “.

Толкова много хора включиха коментари и притеснения относно бъдещето на работните места за хората в своите широкообхватни отговори на това агитиране, че по-късен раздел от този доклад съдържа повече експертни мнения по тази тема.

Следните еднопосочни линии от анонимни респонденти също се свързват с AI и работни места:

  • An доцент по компютърни наукикоментира: „Машините ще могат да извършват по-напреднала работа и да подобряват точността, но това вероятно ще разшири манипулацията на потребителите / избирателите и автоматизацията може да намали наличните работни места“.
  • ДА СЕ директор на глобална организация за цифрови праваказа: „Моята грижа е, че сътрудничеството човек-машина ще остави някои от нас в по-добро състояние, като автоматизира работата си, ще ни даде повече свободно и творческо време, като същевременно направи малко за подобряване на живота на милиарди други“.
  • ДА СЕ професор експерт по културна география и американистикаказа, „Като се има предвид преобладаващото човешко предположение, че капитализмът е нещо, което си струва да се възпроизведе, евакуацията на повечето работни места от ИИ би създала огромна бедност и жестокост от управляващата класа“.
  • Преподавател по медийни изследвания със седалище в Нова Зеландияпише, „Автоматизацията на големи обеми работа от системи, базирани на машинно обучение, е малко вероятно да доведе до увеличаване на социалната справедливост в рамките на капиталистическа икономика“.
  • Старши партньор в една от най-големите световни консултантски фирми за управлениекоментира, „AI ще бъде от полза за бизнеса, икономиката и хората като потребители, но вероятно ще увеличи поляризацията на доходите / заплатите, така че повечето хора като работници може да нямат полза“.
  • Инженер и главен оперативен директор за проектиране на код за автоматизацияказа: „Тези, които имат най-много пари, ще използват позицията си на власт чрез AI; това ще доведе до евентуално катаклизмично неравенство в богатството.
  • Дигитален антрополог за голяма световна технологична компанияпише, „Разликата между тези, които се възползват от технологичния напредък, и тези, които не са се увеличили през последните три десетилетия; Не виждам лесно или бързо обръщане '.

Други анонимни респонденти коментираха:

  • „Някои ще се възползват, докато други ще страдат. Раздвоената икономика ще продължи да расте ... Онези в долната част на стълбата ще видят по-голям брой работни места, отнети от технологиите “.
  • „Като цяло ИИ може да бъде от голяма полза, но трябва да бъдем бдителни за последиците, вместо постоянно да скачаме„ напред “, за да разберем по-късно за всички негативи“.
  • „В САЩ заплатите на работното място са в застой от 70-те години на миналия век въпреки всички постижения в интернет и мобилните устройства, така че не съм оптимист по отношение на AI“.
  • „Разпределението на богатството ще продължи да се разраства, тъй като богатите стават по-богати“.
  • „AI ще доведе до унищожаване на цели стъпала на икономиката и най-добрият начин за стимулиране и икономичност, докато държи заедно счупена икономика, е войната“.
  • „Много хора вече няма да бъдат полезни на пазара на труда. Такава бърза икономическа и социална промяна ще остави мнозина уплашени и ядосани “.
  • „След 12 години изкуственият интелект може да бъде по-разрушителен, отколкото да даде възможност, оставяйки мнозина без работа, докато се преквалифицират и преминат“.
  • „Може да има изтъняване на средния - средния мениджмънт и класа“.
  • „AI все повече ще позволява нискокачествени, но проходими заместители на по-рано квалифицирана работна ръка“.
  • „Има значителни последици за неквалифицирани или лесно автоматизирани задачи в единия край на спектъра и някои видове анализи в другия, които ще бъдат автоматизирани. Притеснението ми е, че нямаме план за тези хора, тъй като тези работни места изчезват “.

Когнитивните, социалните умения и уменията за оцеляване на хората ще бъдат намалени, когато те станат зависими от AI

Докато тези експерти очакват ИИ да увеличи хората по много положителни начини, някои са загрижени, че задълбочаващата се зависимост от мрежите за машинно разузнаване ще намали решаващите човешки способности. Някои твърдят, че вече е имало ерозия на способностите на хората да мислят сами, да предприемат действия, независими от автоматизирани системи, и да взаимодействат ефективно лице в лице с другите.

Чарлз Ес, експерт по етика и професор в катедрата по медии и комуникация в университета в Осло, каза: „Изглежда съвсем ясно, че развиващите се системи за ИИ ще доведат до изключителен набор от възможности, което ще направи живота ни по-удобен. Но удобството почти винаги идва за цената на бюринга - на разтоварването на различни когнитивни практики и добродетели на машините и по този начин ставаме все по-малко способни да упражняваме собствената си агентура, автономия и най-вече нашата преценка (фронезис). По-специално, емпатията и любовта са добродетели, които е трудно да се придобият и подобрят. Най-лошите ми страхове са не само тежка деградация, може би повече или по-малко загуба на такива способности - и, най-лошото, забравянето ни, че дори са съществували на първо място, заедно със световете, които са ни направили възможни през по-голямата част от нашите еволюционни и социална история '.

Даниел Сиеверек, професор от Института за взаимодействие между човек и компютър в университета Карнеги Мелън, прогнозира: „Недостатъкът: изолиране на хората, намаляване на разнообразието, загуба на ситуационна информираност (свидетели на GPS насочени системи) и„ загуба на разписка “как да се правят нещата. В последния случай, тъй като нанасяме нови възможности върху по-старите технологии, ако забравим как работи по-старата технология, не можем да я поправим и слоестите системи могат да се срутят, връщайки ни в по-примитивно време “.

Мерилин Кейд, дългогодишен консултант по глобална интернет политика, отговори: „Технологиите често отразяват етиката на създателите си, но по-важното е на тези, които я комерсиализират. Повечето хора се фокусират върху това как те лично използват технологията. Те не отделят време (или дори притежават уменията / експертизата), за да преценяват атрибутите на начина, по който се прилага технологията ... Трябва да въведем и поддържаме фокус върху критичното мислене за нашите деца / младежи, така че те да са способни за разбиране на последиците от различен напълно дигитализиран свят. Обичам факта, че моите грешки при печата са автоматично коригирани, но знам как да изписвам всички думи. Знам как да изградя логически аргумент. Ако не преподаваме критично мислене във всички точки на образованието, ще имаме свят до 2030 г., в който елитите / учените да вземат решения, които дори не са очевидни за обикновения „човек“ на улицата / квартала “.

Гарланд Маккой, основател и главен директор по развитието на Института за технологично образование, написа: „Аз съм оптимист по душа и затова вярвам, че предвид десетилетие плюс, ужасът, който се разкрива пред очите ни, по някакъв начин ще бъде разбран и разрешен. Въпреки това, ако самоубийствената епидемия, на която сме свидетели, продължи да се увеличава и жените продължават да се отказват от майчинството, всички залози са изключени. Мисля, че технологията е в основата както на патологията, така и на избора “.

Aneesh aneesh, професор от Университета на Уисконсин, Милуоки, каза: „В социално отношение системите за изкуствен интелект ще автоматизират задачи, които в момента изискват човешки преговори и взаимодействие. Освен ако хората не усещат натиска, институционално или по друг начин, да си взаимодействат помежду си, те - по-често, отколкото не - избират да не си взаимодействат. Липсата на физическо, въплътено взаимодействие е почти гарантирано, че ще доведе до социална самота и аномия, а свързаните с тях проблеми като самоубийството - феномен, който вече се увеличава в Съединените щати.

Всеки израз на ежедневието, било то граждански или професионален, или семеен или личен, ще бъде намален от желязната хватка на ИИ върху основните реалности на междуличностните комуникации. Ебенезер Болдуин Боулс

Ebenezer Baldwin Bowles, автор, редактор и журналист, отговори: „Ако някой цени общността и предимството на комуникацията лице в лице, очи в очи, тогава сътрудничеството човек-машина / ИИ през 2030 г. ще успее значително да намали висцералното, първичното аспекти на човечеството. Всеки израз на ежедневието, било то граждански или професионален, или семеен или личен, ще бъде намален от желязната хватка на ИИ върху основните реалности на междуличностните комуникации. Вече разчитането на технологията за глас в текст чрез интерфейса на смартфона намалява способността на хората да пишат умело и уверено. Отделянето на време за позвъняване на друг и чат изисква твърде много психическа енергия, така че ние ‘говорим’ помежду си във фрагменти от текстово поле, записани и често променяни от цифрови асистенти. Пренебрежителното, но социално приемливо „TL; DR“ става обичайно, когато общото ни внимание се разпада. Да, диагностичната медицина и производството на поточни линии и разширената образователна програма със сигурност ще бъдат подобрени чрез кибер-базирани, едно-нулеви технологии, но на каква цена за човечеството? Наистина ли е по-лесно и по-безопасно да погледнете в екран и да слушате електронен глас, отдалечен от другата страна на неразгадаемото цифрово разделение, вместо да гледате в очите на другиго, може би в душа и да си говорите мили думи , и може би пеене в унисон за чудесата на Вселената? Наричаме го „изкуствен интелект“ с основание “.

ДА СЕ главен изследовател на дизайна в една от най-големите технологични компании в светакоментира: „Въпреки че отдавна съм работил в тази област и съм оптимист, сега се страхувам, че целта на повечето AI и UX е насочена към подтикване на хората да взаимодействат повече с устройства и по-малко с други хора. Като социален вид, създаден да живее в общности, намаляването на социалното взаимодействие ще доведе до ерозия на общността и нарастване на стреса и депресията с течение на времето. Въпреки че AI има потенциал да подобри и живота, този напредък ще дойде по-бавно, отколкото си мислят поддръжниците, поради „спирачката на сложността“, за която Пол Алън пише, наред с други неща. Имаше AI лета и AI зими. Това не е безкрайно лято “.

Главен оперативен директорпише: „Без съмнение в съзнанието ми ИИ е и ще продължи да носи ползи за опростяване и подпомагане на човешките дейности; обаче нетният ефект вероятно „ще остави хората по-добре.“ Напредъкът в инструментите, поддържащи изкуствен интелект, вероятно ще увеличи цифровата пропаст в човешките компетенции. Тази нарастваща разлика ще намали капацитета на значителни части от населението да оцелеят след прекъсване на технологията. Това поражда опасения относно хуманитарната и националната сигурност “.

Поредната зелена баниала, Главен изпълнителен директор и регулатор на Телекомуникационния и радиокомуникационен регулатор на Вануату, написа: „С въвеждането на Интернет на нещата човешките сетива западат“.

Алпер Динселна Т.Ц. Истанбулският университет „Култур“ в Турция пише: „Личните връзки ще продължат да намаляват, както са в днешния свят. Ще имаме по-голям интерес към фантастиката, отколкото към реалността. Тези проблеми ще повлияят на развитието на човешкия мозък като резултат “.

Майкъл Дайър, заслужил професор по компютърни науки в Калифорнийския университет в Лос Анджелис, коментира: „Докато GAI (общ AI) не е постигнат, специализираният AI ще премахне задачи, свързани с работни места, но не и самите работни места. Камионерът прави много повече от това просто да кара камион. Барман прави много повече от просто да си налива напитки. Обществото все още ще трябва да се справя с последиците от интелигентните технологии, които навлизат в нови части на пазара на труда. Универсалният основен доход може да смекчи нарастващата социална нестабилност. По-късно, с разпространението на общия ИИ, той ще се превърне в екзистенциална заплаха за човечеството. Моята оценка е, че тази екзистенциална заплаха ще започне да възниква едва през втората половина на 21 век. За съжаление дотогава човечеството може да е станало самодоволно, тъй като специализираните системи за ИИ не представляват екзистенциална заплаха “.

Мауро Д. Риос, съветник на Агенцията за електронно управление на Уругвай и директор на уругвайската глава на Интернет обществото, отговори: „През 2030 г. зависимостта от ИИ ще бъде по-голяма във всеки битов, личен, трудов и образователен контекст; това ще направи живота на много хора по-добър. Той обаче крие рискове. Трябва да можем да поддържаме активни възможности за оцеляване без AI. Човешката свобода не може да бъде загубена в замяна на удобството за подобряване на стандарта ни на живот ... ИИ трябва да продължи да бъде обект на рационалността и контрола на човешкото същество “.

Нанси Гринуолд, респондент, който не е предоставил подробности за идентифициране, е написал: „Може би основният недостатък е прекалената зависимост от ИИ, който 1) е толкова добър, колкото създадените алгоритми (как са инструктирани да„ учат? “) и 2) има опасност от ограничаване на независимото човешко мислене. Колко хилядолетия могат да четат карта или да се ориентират без поетапни инструкции от Waze, Google или техните iPhone? И търсенето на информация онлайн не ви дава общ преглед. Веднъж загубих 1,5 таксувани часа в търсене на правна концепция, когато две минути с човешки контур BNA ми донесоха резултата за две минути. Нека бъдем внимателни как използваме невероятната технология “.

Валари Бел, изчислителен социален учен от Университета на Северен Тексас, коментира: „Като социален учен съм загрижен, че никога преди не сме имали повече начини за общуване и въпреки това никога не сме го правили толкова зле, толкова отровно и така разточително. С устройствата, заместващи все по-високи решения и поведения, хората стават по-откъснати, по-незаинтересовани и в същото време по-фокусирани върху себе си и самостоятелно ангажирани “.

Лейн Дженингс, управляващ редактор на World Future Review от 2009 до 2015 г., написа: „Най-вероятно е напредъкът в AI да подобри технологията и по този начин да даде на хората нови възможности. Но този „напредък“ ще направи човечеството все по-уязвимо от случайни аварии, прекъсвания на електрозахранването и умишлени атаки. Пример: Леки автомобили и камиони и безпилотни пътнически самолети ще подобрят скоростта и безопасността, когато работят правилно, но ще оставят хората в безпомощно състояние, ако се провалят. Страхът и несигурността могат да отменят положителни ползи дори след няколко широко рекламирани бедствия “.

Майкъл Веале, съавтор на „Справедливост и отчетност проектира нуждите за алгоритмична подкрепа при вземането на решения от публичния сектор с високи залагания“ и изследовател на технологична политика в Университетския колеж в Лондон, отговори: „AI технологиите ще се окажат по-тясно приложими от някои надежди . Ще има набор от малки задачи, които ще бъдат по-ефективно автоматизирани. Спорно е дали тези задачи оставят хората с повишена способност да намират смисъл или подкрепа в живота. Освободени от някои аспекти на домакинската работа и администрацията, някои хора могат да се чувстват овластени, докато други може да се чувстват безцелни. Независимият живот на възрастните хора може да бъде технологично медииран, но ще има ли социалните връзки и общността, които правят живота заслужаващ живот? Работните места също ще се променят в природата, но не е ясно, че новите задачи ще направят хората щастливи. Важно е всички технологии и приложения да бъдат подкрепени със социални политики и системи в подкрепа на смисъла и връзката, иначе дори ефективните инструменти за изкуствен интелект могат да бъдат изолиращи и дори увреждащи като цяло “.

Следните еднопосочни линии от анонимни респонденти също се обвързват с тази тема:

  • Британско-американски компютърен ученкоментира, 'Нарастващата зависимост от ИИ ще намали устойчивостта на обществото чрез централизация на основни системи в няколко големи компании'.
  • Водещ инфраструктурен инженер за компания в социалната мрежакоментира, „AI може да направи живота на хората по-добър, като улесни някои неща, но вероятно ще намали човешката стойност по пътя - очаквам хората да са по-малко способни да взимат решения, по-малко да толерират човешкото взаимодействие и т.н.“.
  • ДА СЕ представител за дирекция на телекомуникациите на национална държавапише: „Страхувам се, че хората ще стават все по-зависими от ИИ, до степен, че естественият им интелект ще бъде все по-намален. Притеснението е, че при липса на ИИ те може да не успеят да действат своевременно “.

Други анонимни респонденти коментираха:

  • „Трябва да гарантираме, че имаме хора, които могат да мислят и да решават проблеми и да наблюдават това мислене без помощ“.
  • „Нашите етични възможности изостават далеч от нашите технически възможности“.
  • „Увеличаването на зависимостта от AI ще намали устойчивостта на обществото чрез централизация на основни системи в няколко големи компании“.
  • „Липсата на образование в областта на изкуствения интелект и приобщаването на индивида при вземането на собствени решения ще влоши повечето хора през 2030 г.“.
  • „Малко хора ще разберат какво се опитва да направи ИИ и как го прави; обикновените хора без това знание ще станат по-скоро като овце.
  • „Имам притеснения относно това как хората се адаптират към тези нови промени, продължаващото разединяване, което хората имат поради напредъка в AI, замествайки AI връзките с реални хора, което води до по-голяма депресия“.
  • „Страхувам се, че ще прекарваме дори повече време с машини, отколкото с разговори помежду си“.
  • „Страхувам се, че нарастващата„ даннификация “на работата и живота ни като цяло допълнително ще увеличи натиска, който изпитваме, за да достигнем нереалистичен връх на съвършенството“.
  • „Тъй като все повече хора имат подкрепа за изкуствен интелект / автоматизация в ежедневието си, взаимодействията между хората ще намаляват. Хората могат да се чувстват по-изолирани и по-малко социално свързани. Социалното взаимодействие трябва да се поддържа внимателно и да се развива “.

Гражданите ще се сблъскат с повишена уязвимост, като излагане на киберпрестъпления и кибервойни, които излизат извън контрол, и възможността основните организации да бъдат застрашени от оръжия на информация

Някои от тези експерти са особено притеснени от това как мрежовият изкуствен интелект може да усили киберпрестъпността и да създаде страховити възможности в кибервойната и да позволи ерозията на основни институции и организации.

Антъни Недлър, асистент по медийни и комуникационни изследвания в колежа Урсинус, коментира: „Въпросът е свързан с това как ще се вземат решения, които формират условното развитие на тази потенциално променяща живота технология. И кой ще вземе тези решения? В най-добрия случай, развитието на AI ще бъде повлияно от различни заинтересовани страни, представляващи различни общности, които ще бъдат засегнати от неговото прилагане (и това може да означава), че конкретни приложения на AI - военни приложения, медицина, маркетинг и т.н. - ще да бъдат наблюдавани от отразяващи етични процеси. В абсолютно най-лошия сценарий неограниченото военно развитие ще доведе до пълно унищожение - независимо дали в ситуации, в които „машините поемат властта“, или по-вероятно, когато оръжията с огромно унищожение стават все по-лесно достъпни “.

Дженифър Дж. Сноу, служител по иновациите в американските военновъздушни сили, пише: „Фасетите, включително оръжия на информация, кибертормоз, проблеми с поверителността и други потенциални злоупотреби, които ще произтичат от тази технология, ще трябва да бъдат разгледани от глобалните лидери“.

Лий Мак Найт, доцент в Училището за информационни изследвания на университета в Сиракуза, коментира: „Ще има добри, лоши и грозни резултати от взаимодействието човек-машина в изкуствено интелигентни системи, услуги и предприятия ... Лошо проектираните изкуствено интелигентни услуги и предприятия ще имат непредвидени обществени последици , надяваме се, че не е катастрофално, но със сигурност ще навреди на хората и инфраструктурата. Още по-голямо съжаление, че се защитаваме от злото - или за да бъдем учтиви, лошите системи на ИИ, превърнати в грозни от хората или други машини - трябва да станат приоритет за обществата много преди 2030 г., предвид ясната и настояща опасност. Как мога да съм сигурен? Какво правят ботовете и зловредният софтуер всеки ден днес? Има ли причина да мислим, че ‘злодеите’ ще бъдат по-малко мотивирани в бъдеще? Не. Така че опасението ми е, че надяващото се слънчево бъдеще на ИИ, което като цяло можем да приемем, че ще бъде нетно положително за всички нас, ще бъде помрачено от - много - нещастни събития “.

Робърт М. Мейсън, почетен професор в Информационното училище на Университета във Вашингтон, отговори: „Технологиите, включително AI, използват човешките усилия. Хората намират начини да прилагат технологии за подобряване на човешкия дух и човешкия опит, а други могат да използват технологии, за да използват човешките страхове и да задоволят личната алчност. Както отбеляза покойният Фред Робинс, Нобелов лауреат по физиология / медицина (моята перифраза, когато попитах защо е песимист по отношение на бъдещето на човечеството): „Разбира се, че съм песимист. Хората са имали милиони години да се развиват физически и психически, но ние сме имали само няколко хиляди години - с разширяването на световното население - да развием социалните умения, които ще ни позволят да живеем близо един до друг. “Разбирам неговия песимизъм, и са необходими само няколко души, за да използват ИИ (или която и да е технология) по начини, които водят до широко негативно обществено въздействие “.

Франк Перо, футуролог и консултант в StratEDGY, коментира: „AI до 2030 г. ... Това е само за около десетилетие, така че въпреки продължаващата еволюция на ИИ, тя няма да има големи широко разпространени ефекти до 2030 г. С грижата за изпълнението всички ефекти трябва да имат положително социално и икономическо въздействие. Въпреки това, промените ще представляват значителна стъпка към това, което аз наричам DigiTransHuman Future, където полезността на хората ще намалява все повече с напредването на този век, до степен, че хората могат да станат без значение или да изчезнат, заменени от DigiTransHumans и техните технологии / роботи, които ще се появят и ще се държат точно като днешните хора, с изключение на много напреднали етапи от развитието на хуманоидите. Това няма да бъде така наречената „сингулярност“ и няма нищо „изкуствено“ в DigiTransHuman Intelligence. Това е част от проектираната еволюция на вида “.

Ако има неща, които трябва да се направят с ИИ, хората ще разберат за тях и ще ги направят. Джон Лесли Кинг

Джон Лесли Кинг, професор по компютърни науки в университета в Мичиган и няколко години консултант по киберинфраструктура за дирекциите на Националната научна фондация за компютърни и информационни науки и инженерство (CISE) и социални, поведенчески и икономически науки (SBE), коментира: има неща, които трябва да се направят с AI, хората ще разберат за тях и ще ги направят. Ще има непрекъсната битка като тази между хакерите и хората от ИТ сигурността “.

Джон Маркоф, сътрудник в Центъра за напреднали изследвания в поведенческите науки в Станфордския университет и автор на „Машини на любящата благодат: Стремежът към обща основа между хората и роботите“, написа: „Има очаквани и неочаквани последици за„ ИИ и свързаните с него технологии. „Напълно възможно е подобренията в жизнения стандарт да се компенсират от използването на автономни оръжия в нови видове война“.

Ветеран на новаторска интернет компаниякоментира: „Пред лицето на управлението на ресурсите и войната - големите проблеми за ИИ в мащаб - целите саневероятно ще бъде споделяне и съвместно съществуване “.

Дан Шулц, старши технолог-креатив в Internet Archive, отговори: „ИИ без съмнение ще доведе до животоспасяващи подобрения за огромна част от световното население, но също така ще бъде възможно да се въоръжат по начини, които допълнително да изострят разделения от всякакъв вид, които можете да си представите (политически, икономически, образователни, привилегировани и др.). AI ще усили и ще даде възможност на волята на властта; нетното му въздействие върху човечеството ще зависи от естеството на това.

Сам Грегъри, директор на WITNESS и дигитален активист за правата на човека, отговори: „Тенденциите в AI предполагат, че това ще позволи по-индивидуализирано, персонализирано създаване на синтетични медийни филтърни мехурчета около хората, включително използването на дълбоки фалшификати и свързаните с тях индивидуализирани синтетични аудио и видео микро насочване въз основа на лични данни и тенденции при използване на генерирани от AI и насочени ботове. Тези фактори могат да бъдат контролирани чрез увеличаване на законодателството и надзора на платформата, но до 2030 г. няма много основания да се смята, че индивидуалната автономия и способността на хората да се придвижат назад, за да разберат света около тях, ще се подобрят “.

Мигел Морено-Муньос, професор по философия, специализиран в етиката, епистемологията и технологиите в университета в Гранада, Испания, каза: „Съществува риск от прекомерна зависимост от системи с лошо опитно увеличаване на интелигентността поради натиск за намаляване на разходите. Това може да доведе до големи дисфункции в здравеопазването или при надзора на изключително сложни процеси. Прибързаното прилагане на системи за управление, основани на Интернет на нещата, може да бъде проблематично в определени сектори на промишлеността, транспорта или здравеопазването, но предимствата му ще надвишат недостатъците му. Вярвам, че може да има значителни рискове във военните приложения на ИИ “.

Дениз Н. Рал, професор по изкуства и социални науки от университета Саут Крос в Австралия, отговори: „Основният проблем с човешката раса и нейното продължаващо съществуване на тази планета е пренаселеността и изчерпването на земните ресурси. Досега взаимодействието с технологиите намалява населението в „първия свят“, но не и в развиващите се страни и бедността ще подхранва световните войни. Технологиите могат да подкрепят роботизираните войни и да намалят жертвите за богатите страни. Различията между богатите и бедните ще продължат да намаляват “.

Патрик Ламбе, партньор в Straits Knowledge и президент на главата на Международната асоциация за знание от Сингапур, написа: „Избрах отрицателния отговор не поради дистопичната визия за самия ИИ и технологичното взаимодействие с човешкия живот, а защото вярвам, че социалната, икономическата и политическият контекст ще бъде бавен за адаптиране към технологичните възможности. Реалната среда и пространството на технологичните възможности стават все по-разграничени и несинхронизирани. Изменението на климата, миграционният натиск, политическия натиск, снабдяването с храна и водата ще създадат самоукрепваща се „кризисна верига“, с която способностите на човешките машини / ИИ ще останат до голяма степен извън досега. Ще има известно подобрение на способностите (напр. Медицина), но като цяло технологичният принос ще продължи да добавя негативен натиск към другите фактори на околната среда (заетост, сигурност на работното място, политически промени в ляво-дясно). Като цяло мисля, че тези разединения ще продължат да се засилват, докато се достигне основна кризисна точка (напр. Война).

Mechthild Schmidt Feist, координатор на отдел за цифрови комуникации и медии в Нюйоркския университет, каза: „Историческият прецедент показва, че изобретенията са също толкова мощни в ръцете на престъпници или безотговорни или неинформирани хора. Колкото по-мощна е нашата комуникация, толкова по-разрушителна може да бъде тя. Ще ни трябва глобално, изпълнимо законодателство, за да ограничим злоупотребите. 1) Това е малко вероятно. 2) Трудно е да се предвидят всички злоупотреби. Отрицателното ми мнение се дължи на неспособността ни да използваме отговорно нашите настоящи модели за онлайн комуникация и медии. Утопичната свобода се превърна в дистопично бойно поле “.

Марк Бреман, управляващ партньор в IDARE LLC, каза: „Не знаем всичко, което могат да направят машините. Няма присъща необходимост те да се грижат за нас. Може да сме им пречка. Те могат да приемат заповеди от злодеи. Те ще ни позволят да правим грешки дори по-бързо, отколкото сега. Всяка технология е толкова добра, колкото моралът и етиката на нейните създатели, програмисти и контролери. Ако машините са програмирани да се грижат повече за земята, отколкото за хората, те така или иначе могат да ни елиминират, тъй като ние унищожаваме земята “.

Робърт К. Логан, главен учен в Стратегическата иновационна лаборатория (sLab) в университета OCAT и почетен професор по физика в университета в Торонто, каза: „Идеята за Сингулярността е пример за прекомерното разширяване на ИИ. Компютрите никога няма да постигнат еквивалентност на човешкия интелект. Няма такова нещо като AW (изкуствена мъдрост). ИИ като инструмент за подобряване на човешкия интелект има смисъл, но ИИ, който замества човешкия интелект, няма смисъл и следователно е глупост “.

Alexey Turchin, изследовател на екзистенциални рискове и футуролог, отговори: „Съществуват значителни рискове от злоупотреба с ИИ преди 2030 г. под формата на рояци безпилотни летателни апарати с AI или дори необвързан AI на човешко ниво“.

Адам Попеску, писател, който често допринася за New York Times, Washington Post, Bloomberg Businessweek, Vanity Fair и BBC, пише: „Полагаме твърде много наивна надежда във всичко, което е спасител“.

Следните еднопосочни линии от анонимни респонденти също се обвързват с тази тема:

  • Стратег по киберсигурносттаказа, „Светът е станал технологично ориентиран и това създава предизвикателства - например киберпрестъпността“.
  • Респондент, който работи в голяма глобална инициатива за поверителностпрогнозира се, че AI и технологиите няма да подобрят живота на повечето хора, цитирайки „Загуба на работни места, алгоритмите се провалят“.

Други анонимни респонденти коментираха:

  • „С нарастващите кибератаки и опасения относно неприкосновеността на личния живот ИИ може да свърже хората с лоши актьори, което може да причини стрес и нови проблеми - дори най-простите атаки / шеги могат да повлияят негативно на живота на хората“.
  • „Нарастващата зависимост на хората от изчисленията, съчетана с фундаменталната несигурност на изчисленията с общо предназначение, ще доведе до широко използване“.