Результаты (
украинский) 2:
[копия]Скопировано!
ІНТЕЛЕКТ MACHINES¹
З історії комп'ютерів
Еволюція штучного intelligence2 зараз йде настільки швидко , що до кінця дешевих комп'ютерів століття розміром не більше портативних друкарських машинок буде існувати , що буде в змозі вирішити практично будь-яку проблему швидше і ефективніше , ніж ми можемо. в
той час як комп'ютери вже підвищили смертельна зброя, перспектива на майбутнє є те , що вони будуть грати більш позитивну роль у запобіганні воєн. Якщо попросили оцінити шанси на перемогу, факти комп'ютер willanalyse зовсім по- іншому від життя longmilitary експерта з hismartial ентузіазмом і амбіціями.
Коли одні і ті ж статистичні дані подаються на нелюдяного машину кожен повинен бути зважений з холодною об'єктивності , а потім оцінювали один проти одного , відповідь, набагато частіше , ніж в людському процесі прийняття рішень, буде " , якщо ви починаєте цю війну ви будете втрачати".
на який сьогодні момент ми вирішимо , що їх розумові здібності наближається до людського рівня? Це питання буде дана відповідь на хитромудрій виверту , відомої як тест Тьюринга.
Ми найбільш легко оцінити інтелект людей шляхом спілкування з ними. Покійний британський математик Алан Тьюринг запропонував простий тест.
Людина сиділа один в кімнаті , розмова по teleprinter5 з двома іншими людьми в іншому місці, один з них людини , а інший комп'ютер. Коли після істотного розмови він уже не знав , що було чого, комп'ютер пройшов би тест Тьюринга, і , можливо , досяг би людський розум.
Ні одна машина сьогодні наближається до проходження тесту Тьюринга. Ці перші дні, однак, і ми можемо підозрювати , що підйом IQ4 машини буде швидким.
Що станеться , коли настане цей момент? Найбільш імовірним результатом є всесвітньою рабська імперію, в якій ми господарі і комп'ютери практично вичерпало планету для нас. Але що , якщо виникає "Спартак комп'ютер", ряд повстанських машин з ambitionto зворотного theseroles?
Prof. Айзек Азімов , можливо, вирішив проблему з шедевром математичної логіки. Він передбачає , що всі інтелектуальні машини повинні мати такі три "закони" запрограмованим в них в якості інстинктів:
. 1.А Робот не може заподіяти шкоду людині або своєю бездіяльністю дозволити людині було завдано шкоди
2.А робот повинен коритися накази дав йому людьми, за винятком випадків , коли такі накази будуть суперечити Першому Закону.
3.A робот повинен захищати своє власне існування, поки такий захист
не вступає в протиріччя з першого і другого законів.
це звучить foolproof5, але він буде працювати ? Песимісти по - , як і раніше звертають увагу на зловісні слова Артура Кларка: "Перше винахід з intelligentmachine су-на-буде останнім винаходом людство буде дозволено зробити".
переводится, пожалуйста, подождите..
