Вчені й інженери попереджають про шкоду штучного інтелекту

Відкритий лист, в якому закликають до обережного поводження з штучним інтелектом, підписало величезна кількість людей, в тому числі і провідні дослідники і вчені в цій галузі. Автори вважають, що штучний інтелект не повинен виходити за межі нашого контролю.інтелект

Побоювання, пов`язані зі штучним інтелектом

Такі фільми, як «Термінатор», дають нам повне уявлення про те, що трапиться, коли роботи перестануть виконувати наші команди. Тому побоювання багатьох людей, і вчених в тому числі, не можна назвати необгрунтованими. З огляду на темпи розвитку комп`ютерних технологій, ми все ближче підходимо до точки, коли доведеться вирішувати ці питання.вчені

У грудні Стівен Хокінг дав старт нової хвилі обговорень навколо цієї теми. З огляду на те, що здібності Хокінга до спілкування залежать від передових комп`ютерних технологій, його навряд чи можна зарахувати до луддитів, але його думки, безсумнівно, привертають увагу.штучний

Лист було ініційовано Інститутом майбутнього життя - це добровільна організація, яка описує свої завдання як «пом`якшення екзистенціальних ризиків, що стоять перед людством».шкоду

Про що йде мова в листі

У відкритому листі зазначається, що існує можливість в цих областях переступити поріг, що відокремлює лабораторні дослідження і розвиток економічно цінних технологій, хоча навіть незначні поліпшення в продуктивності коштують величезних грошей. вченіЦе стає причиною збільшення інвестиційних потоків в дослідження. В даний час стає зрозумілим, що дослідження штучного інтелекту неухильно прогресує, і його вплив на суспільство, швидше за все, збільшиться. Потенційні вигоди величезні, так як все, що може запропонувати цивілізація, є продуктом людського розуму. шкодуМи не в змозі передбачити, чого зможемо досягти, якщо станемо використовувати штучний інтелект, але викорінення хвороб та бідності не є чимось незбагненним. З огляду на великий потенціал штучного інтелекту, важливо зрозуміти, як скористатися його перевагами, уникаючи потенційних пасток.штучний

Автори додають, що наші системи штучного інтелекту повинні робити тільки те, що ми хочемо від них отримати, і не приносити при цьому шкоди людям. Також в листі викладені пріоритетні напрямки досліджень, які, на думку авторів, можуть принести максимальні блага для суспільства.інтелект

Можливо, вам варто приєднатися?

Будь-який бажаючий може підписати цей лист, і тисячі людей вже зробили це. Хоча багато що підписали є звичайними людьми, але такі імена, як Елон Маск і сам Хокінг, легко впізнавані. Багато інші імена в списку - провідні дослідники в сфері IT та філософії, в тому числі і команда IBM.



Оцініть, будь ласка статтю
Всього голосів: 160