It is one of the most evocative phrases in the lexicon of science: art перевод - It is one of the most evocative phrases in the lexicon of science: art русский как сказать

It is one of the most evocative phr

It is one of the most evocative phrases in the lexicon of science: artificial intelligence, "AI", the creation of machines that can think. Just the mention of it conjures up images of HAL, the all-too-intelligent computer in 2001: A Space Odyssey, and C3PO the chatty, batty robot from Star Wars.
For over half a century, computer scientists have been working towards creating such machines, spending billions of pounds in the attempt. And hanging over their efforts has been a challenge set by a British mathematician widely regarded as the father of AI research: Alan Turing.
During the 1930s Turing showed, in theory at least, that a "universal machine" could be built, capable of performing all the tasks of any special-purpose computing machine. After war-time work on code-breaking, Turing helped to turn his discovery into the reality of an electronic computer. But he also believed his proof meant that computers could mimic the action of the human mind.
In 1951, a few years before his mysterious suicide at the age of 41, Turing published a prediction: by the end of the century, computers would be able to hold a five-minute conversation with humans and fool 30 per cent of them into believing they were dealing with another human being.
It is a deadline that has come and gone, along with huge amounts of funding. Yet no computer is remotely close to passing the "Turing Test". What went wrong ? Why has no one succeeded in creating AI?
In fact, AI is already here, earning its keep in banks, airports, hospitals, factories - even your own home and car. It may not be quite what many were led to expect, but then the story of real-life AI is one of misplaced dreams, bitter feuds and grant-grabbing hype. Today's computer scientists divide into two broad camps on the issue of AI. The pragmatists see AI as a means to creating machines that do for thinking what engines have done for physical labour - taking on tasks we humans would prefer not to do: spending endless hours looking out for intruders on CC-TV, say, or scouring heaps of market data for trends or scanning piles of medical images for signs of disease.

Then there are the visionaries, still wedded to Turing's challenge and trying to bring the sci-fi image to life. For them AI is all about computerised "assistants" that solve your printer problems and cheeky-chappy robots that talk to strangers. There are some who even see AI as the route to understanding the workings of the human mind.

Without doubt, it is the visionaries who have done most to get AI research on TV shows such as Tomorrow's World - and supplements such as this. It is the pragmatists, however, who have got AI out of the door and into successful applications. To do it, they have built on everything from mathematical theories to vague hunches about how to imbue machines with intelligence, some of which predate even Turing's prediction.

As early as 1943, Walter Pitts and Warren McCullock at the Massachusetts Institute of Technology (MIT) had shown that collections of simple electronic brain-cells - "neural networks" - could perform certain tasks requiring a degree of intelligence. The trick lay in training such networks to associate particular inputs with outputs - just as humans link, say, names to faces. Considering their crudeness, the abilities of these early neural networks was astonishing. By 1951, MIT's Marvin Minsky had wired together vacuum tubes and mimicked a rat's ability to navigate a maze after "learning" which routes worked best.

It seemed clear that the fastest route to AI lay in building ever-bigger, ever-more brain-like neural networks. And without doubt, sophisticated neural networks have led to some of the most impressive applications of AI. Around the same time, however, an entirely different approach started to emerge - creating the other major strand of AI research.

Suspicious about whether something wired up like a brain really worked like a brain, some researchers decided that a more certain route to AI was to give machines access to the rules of reasoning: that is, symbolic logic.

Mathematicians already had operations and rules of inference that could handle logical statements such as "IF Jane is a woman's first name, and someone's first name is Jane, THEN that someone is a woman". By the mid-1950s, Herbert Simon of the Carnegie Institute of Technology in Pittsburgh and colleagues had turned these rules into a set of instructions computers could understand. Called the Logic Theorist, their program could tackle problems taken from a notoriously difficult textbook on logic written by Bertrand Russell and Alfred Whitehead - which certainly required some degree of "intelligence".

Not for the last time, however, this modest success prompted wild optimism about the ability of computers to take on anything. The 1956 conference at which Logic Theorist made its debut saw the birth of the term "Artificial Intelligence". Soon afterwards, Simon was predicting the emergence in 10 years of computers so smart they would make their own mathematical discoveries and become world chess champion.

It was a prediction that reckoned without human nature. Resentful of the claims being made by each camp - and aware of the finite research funding available - a bitter schism developed between those who saw neural networks as the way ahead and those backing the logic-based approach.

The first to suffer the consequences was neural network research, funding for which all but ceased from the late 1960s until the mid-1980s. The collapse was triggered by a book co-authored by, of all people, Marvin Minsky - one of the early pioneers of neural networks.

Annoyed by the overblown claims made for simple neural networks, Minsky claimed this whole approach to AI was doomed. His "proof" rested on the inability of simple neural networks to solve a basic logical problem. Even at the time, researchers knew the solution: use more sophisticated neural networks. It made no difference; the funding dried up; for the next 15 years the logic-based approach ruled the AI roost.

Attention focused on so-called expert systems, computers whose logic-based programs could supposedly capture human expertise and reason with it. The prospect of having, say, desktop consultants on every GP's desk or pension experts in every high-street bank was a beguiling one. As ever, however, the reality failed to match the hype. Capturing human expertise proved harder than the enthusiasts thought, and performing logical reasoning made big demands of the computers then available. By the early 1990s, it was clear that expert systems were not the Golden Road to AI either.

For a while, the pendulum of hype looked set to swing straight back to neural networks. Fortunately, some sanity has now seeped into AI research, with recognition that - surprise, surprise - every approach has its merits and pitfalls.

The logic-based approach, for instance, tends to work best in tight, well-defined areas, where the computer draws conclusions from "checklist"-style responses. This has led to financial transaction vetting becoming one of its most successful applications, not least because customers often demand justification for a particular decision, something that logic-based systems can provide. Fraud detection, medical diagnosis and process control are other areas that have seen logic-based AI successfully applied.

The difficulty of giving expert systems the background knowledge they need to make inferences has also been tackled. Human experts themselves aren't always clear how they reach the decisions they do; they also make mistakes, and find it hard to keep up to date. This has led to the emergence of expert systems based on so-called Bayesian networks, which use probability theory to turn new and uncertain data into further "expertise" for the computer to draw on.

Neural networks, the other major strand in the AI story, have also found success in applications which play to their strengths: pattern-spotting and learning from experience. Unlike logic-based systems, neural networks don't have to know what rules apply, instead acquiring their skills by being exposed to lots of examples. They also cope well with new, incomplete and noisy data. This has made them ideal for tasks such as spotting faces in a crowd, detecting market trends in messy data-sets and controlling complex production processes.

Neural networks aren't too good at justifying their actions, however - which can make them unacceptable for making decisions whereby fortunes or lives are at stake. This has led to the emergence of so-called hybrid systems, where both logic and neural AI techniques are combined to give the best of both worlds.

After half a century of research, all the money and effort poured into AI technology is certainly starting to pay off. The most successful applications have, however, generally been more ho-hum than AI's sci-fi image: the neural network cooking controls of Sharp's microwave ovens, for example, or the expert system that vets American Express's credit card transactions.

When current AI technology is pushed closer to its sci-fi image, the results can be more irritating than impressive: witness Microsoft's Paperclip assistant, and the AI-based "help-desks" of some high-tech companies. Even now, 50 years after work began on intelligent machines, only the bravest customers trust the automated telephone ticketing system at their local cinema.

Even so, visionary AI researchers working away from the mainstream have pulled off some striking achievements, using techniques hand-crafted for the task. Herbert Simon's 1957 prediction that a computer would make a mathematical discovery came to pass 20 years later, when a logic-based program named AM, developed by Douglas Lenat at Stanford University, discovered that every even number greater than four seemed to be the sum of two odd primes. In fact, AM had been pipped to this discovery by the Prussian mathem
0/5000
Источник: -
Цель: -
Результаты (русский) 1: [копия]
Скопировано!
Это один из самых запоминающихся фраз в лексикон науки: искусственный интеллект, «Ай», создание машин, которые могут думать. Только упоминание о нем в воображении образы HAL, слишком умный компьютер в 2001: Космическая Одиссея и C3PO болтливый, сумасшедший робот из Звездных войн.Для более чем половины столетия Компьютерные ученые работают на пути к созданию таких машин, тратят миллиарды фунтов в попытке. И висит над их усилий был вызов установленным британский математик, широко рассматривается как отец исследований ИИ: Alan Тьюринга.В течение 1930-х Тьюринг показали, в теории по крайней мере, что «универсальная машина» может быть построен, могут выполнять все задачи любой вычислительной машины специального назначения. После войны время работы на код ломать Тьюринг помог превратить его открытие в реальность электронный компьютер. Но он также считает, что его доказательство означало, что компьютеры могут имитировать действие человеческого разума.В 1951 году, за несколько лет до его таинственное самоубийство в возрасте 41, Тьюринг опубликовал прогноз: к концу века компьютеров сможет провести пять минут разговора с людьми и дурак 30% из них в заблуждение, они имели дело с другим человеком.Это срок, который пришел и ушел, а также огромное количество средств. Еще нет компьютера удаленно находится недалеко от проходящей «Тест Тьюринга». Что пошло не так? Почему не преуспел в создании АИ?In fact, AI is already here, earning its keep in banks, airports, hospitals, factories - even your own home and car. It may not be quite what many were led to expect, but then the story of real-life AI is one of misplaced dreams, bitter feuds and grant-grabbing hype. Today's computer scientists divide into two broad camps on the issue of AI. The pragmatists see AI as a means to creating machines that do for thinking what engines have done for physical labour - taking on tasks we humans would prefer not to do: spending endless hours looking out for intruders on CC-TV, say, or scouring heaps of market data for trends or scanning piles of medical images for signs of disease. Then there are the visionaries, still wedded to Turing's challenge and trying to bring the sci-fi image to life. For them AI is all about computerised "assistants" that solve your printer problems and cheeky-chappy robots that talk to strangers. There are some who even see AI as the route to understanding the workings of the human mind.Without doubt, it is the visionaries who have done most to get AI research on TV shows such as Tomorrow's World - and supplements such as this. It is the pragmatists, however, who have got AI out of the door and into successful applications. To do it, they have built on everything from mathematical theories to vague hunches about how to imbue machines with intelligence, some of which predate even Turing's prediction.As early as 1943, Walter Pitts and Warren McCullock at the Massachusetts Institute of Technology (MIT) had shown that collections of simple electronic brain-cells - "neural networks" - could perform certain tasks requiring a degree of intelligence. The trick lay in training such networks to associate particular inputs with outputs - just as humans link, say, names to faces. Considering their crudeness, the abilities of these early neural networks was astonishing. By 1951, MIT's Marvin Minsky had wired together vacuum tubes and mimicked a rat's ability to navigate a maze after "learning" which routes worked best. It seemed clear that the fastest route to AI lay in building ever-bigger, ever-more brain-like neural networks. And without doubt, sophisticated neural networks have led to some of the most impressive applications of AI. Around the same time, however, an entirely different approach started to emerge - creating the other major strand of AI research.Suspicious about whether something wired up like a brain really worked like a brain, some researchers decided that a more certain route to AI was to give machines access to the rules of reasoning: that is, symbolic logic.Mathematicians already had operations and rules of inference that could handle logical statements such as "IF Jane is a woman's first name, and someone's first name is Jane, THEN that someone is a woman". By the mid-1950s, Herbert Simon of the Carnegie Institute of Technology in Pittsburgh and colleagues had turned these rules into a set of instructions computers could understand. Called the Logic Theorist, their program could tackle problems taken from a notoriously difficult textbook on logic written by Bertrand Russell and Alfred Whitehead - which certainly required some degree of "intelligence". Not for the last time, however, this modest success prompted wild optimism about the ability of computers to take on anything. The 1956 conference at which Logic Theorist made its debut saw the birth of the term "Artificial Intelligence". Soon afterwards, Simon was predicting the emergence in 10 years of computers so smart they would make their own mathematical discoveries and become world chess champion.It was a prediction that reckoned without human nature. Resentful of the claims being made by each camp - and aware of the finite research funding available - a bitter schism developed between those who saw neural networks as the way ahead and those backing the logic-based approach.The first to suffer the consequences was neural network research, funding for which all but ceased from the late 1960s until the mid-1980s. The collapse was triggered by a book co-authored by, of all people, Marvin Minsky - one of the early pioneers of neural networks.Annoyed by the overblown claims made for simple neural networks, Minsky claimed this whole approach to AI was doomed. His "proof" rested on the inability of simple neural networks to solve a basic logical problem. Even at the time, researchers knew the solution: use more sophisticated neural networks. It made no difference; the funding dried up; for the next 15 years the logic-based approach ruled the AI roost. Attention focused on so-called expert systems, computers whose logic-based programs could supposedly capture human expertise and reason with it. The prospect of having, say, desktop consultants on every GP's desk or pension experts in every high-street bank was a beguiling one. As ever, however, the reality failed to match the hype. Capturing human expertise proved harder than the enthusiasts thought, and performing logical reasoning made big demands of the computers then available. By the early 1990s, it was clear that expert systems were not the Golden Road to AI either.For a while, the pendulum of hype looked set to swing straight back to neural networks. Fortunately, some sanity has now seeped into AI research, with recognition that - surprise, surprise - every approach has its merits and pitfalls. The logic-based approach, for instance, tends to work best in tight, well-defined areas, where the computer draws conclusions from "checklist"-style responses. This has led to financial transaction vetting becoming one of its most successful applications, not least because customers often demand justification for a particular decision, something that logic-based systems can provide. Fraud detection, medical diagnosis and process control are other areas that have seen logic-based AI successfully applied.The difficulty of giving expert systems the background knowledge they need to make inferences has also been tackled. Human experts themselves aren't always clear how they reach the decisions they do; they also make mistakes, and find it hard to keep up to date. This has led to the emergence of expert systems based on so-called Bayesian networks, which use probability theory to turn new and uncertain data into further "expertise" for the computer to draw on. Neural networks, the other major strand in the AI story, have also found success in applications which play to their strengths: pattern-spotting and learning from experience. Unlike logic-based systems, neural networks don't have to know what rules apply, instead acquiring their skills by being exposed to lots of examples. They also cope well with new, incomplete and noisy data. This has made them ideal for tasks such as spotting faces in a crowd, detecting market trends in messy data-sets and controlling complex production processes. Neural networks aren't too good at justifying their actions, however - which can make them unacceptable for making decisions whereby fortunes or lives are at stake. This has led to the emergence of so-called hybrid systems, where both logic and neural AI techniques are combined to give the best of both worlds. After half a century of research, all the money and effort poured into AI technology is certainly starting to pay off. The most successful applications have, however, generally been more ho-hum than AI's sci-fi image: the neural network cooking controls of Sharp's microwave ovens, for example, or the expert system that vets American Express's credit card transactions. When current AI technology is pushed closer to its sci-fi image, the results can be more irritating than impressive: witness Microsoft's Paperclip assistant, and the AI-based "help-desks" of some high-tech companies. Even now, 50 years after work began on intelligent machines, only the bravest customers trust the automated telephone ticketing system at their local cinema. Even so, visionary AI researchers working away from the mainstream have pulled off some striking achievements, using techniques hand-crafted for the task. Herbert Simon's 1957 prediction that a computer would make a mathematical discovery came to pass 20 years later, when a logic-based program named AM, developed by Douglas Lenat at Stanford University, discovered that every even number greater than four seemed to be the sum of two odd primes. In fact, AM had been pipped to this discovery by the Prussian mathem
переводится, пожалуйста, подождите..
Результаты (русский) 2:[копия]
Скопировано!
Это один из самых запоминающихся фраз в лексиконе науки: искусственный интеллект, "AI", создание машин, которые могут думать. Просто упоминание о нем вызывает в воображении образы HAL, все слишком умные компьютерной 2001: Космическая Одиссея, и C3PO болтливый, сумасшедший робот из Звездных войн.
На протяжении полувека, компьютерные ученые работают над созданием таких машины, тратят миллиарды фунтов в попытке. И висит над их усилий был вызов устанавливается британского математика широко рассматривается как отец исследований ИИ:. Алан Тьюринг
в 1930-х Тьюринг показал, по крайней мере теоретически, что "универсальная машина" может быть построен, способный выполнять все задачи любого специального назначения вычислительной машины. После войны времени работы на код-нарушения, Тьюринг помог превратить свое открытие в реальности ЭВМ. Но он также считал, что его доказательство тому, что компьютеры могут имитировать действие человеческого разума.
В 1951 году, за несколько лет до своего таинственного самоубийства в возрасте 41, Тьюринг опубликовал прогноз: к концу века, компьютеры смогут провести пятиминутный разговор с людьми и обмануть 30 процентов из них, полагая, что они имели дело с другим человеком.
Это срок, который пришел и ушел, вместе с огромными объемами финансирования. Тем не менее, ни один компьютер не отдаленно близко к проходя тест Тьюринга "". Что пошло не так? Почему же никто не преуспели в создании ИИ
На самом деле, А. И. уже здесь, зарабатывая свою Имейте в банках, аэропортах, больницах, на заводах - даже ваш собственный дом и автомобиль. Это может быть не совсем то, что многие пришли к ожидать, но затем история реальной жизни А.И. является одним из неуместных мечты, горьких распрей и предоставить захвата ажиотаж. Сегодняшние ученые компьютер разделить на две большие лагеря по вопросу о ИИ. Прагматики см ИИ как средство для создания машин, которые делают думать, что двигатели сделали для физического труда - принимать на задачи, которые мы, люди предпочли бы не делать: проводить бесконечные часы, глядя на злоумышленников на CC-ТВ или, скажем, чистящие кучи рыночных данных для тенденций или сканирования груды медицинских изображений для признаков заболевания. Тогда есть мечтатели, еще преданы вызов Тьюринга и пытаются довести научно-фантастического образа жизни. Для них ИИ все о компьютеризированных "помощников", которые решают свои проблемы принтера и дерзкий паренек-роботов, которые говорят с незнакомыми людьми. Есть некоторые, кто даже увидеть AI как путь к пониманию, как работает человеческий разум. Без сомнения, это провидцы, которые наиболее сделать, чтобы получить исследований AI на телевизионных шоу, таких как World Tomorrow - и добавок, таких, как этот. Это прагматики, однако, получившие AI из двери и в успешных приложений. Чтобы сделать это, они построили все, от математических теорий к смутных догадках о том, как наполнить машины с интеллектом, некоторые из которых предшествуют даже прогноз Тьюринга. Уже в 1943 году, Уолтер Питтс и Уоррен McCullock в Массачусетском технологическом институте (MIT) показали, что коллекции простых электронных мозговых клеток - "нейронные сети" - может выполнять определенные задачи, требующие степень интеллекта. Хитрость планировка в учебных таких сетей, чтобы связать отдельные входы с выходами - так же, как люди ссылаются, скажем, имена лиц. Учитывая их грубость, способности этих ранних нейронных сетей было удивительно. К 1951 году, Массачусетского технологического института Марвин Мински уже соединены вместе вакуумных трубок и передразнил способность крыс к проходить лабиринт, после "обучения", который маршруты работали лучше. Было ясно, что самый быстрый путь к AI лежал в здании когда-либо больше, все более мозговой как нейронных сетей. И без сомнения, сложные нейронные сети привели к некоторым из самых впечатляющих приложений ИИ. Примерно в то же время, однако, полностью отличается подход начали появляться. - Создавая другую важную прядь исследований ИИ Подозрительный о том-то проводной вверх как мозг на самом деле работала как мозг, некоторые исследователи решили, что более определенный маршрут МА был чтобы дать машинам доступ к правилам рассуждений:., что является, символическая логика математики уже операции и правила вывода, которые могут обрабатывать логические высказывания, такие как "ЕСЛИ Джейн имя женщины, и чей-то имя Джейн, тогда кто-то это женщина ". К середине 1950-х годов, Герберт Саймон в Технологическом институте Карнеги в Питтсбурге и его коллеги превратили эти правила в набор инструкций компьютеры могли понять. Вызывается Логика Теоретик, их программа может решать проблемы, взятые из учебника известно, трудно по логике письменного Бертран Рассел и Альфред Уайтхед -., Которые, безусловно, необходимой некоторую степень "интеллекта" Не в последний раз, однако, этот скромный успех побудил дикий оптимизм о способности компьютеров взять на что-нибудь. 1956 конференция, на которой Логика Теоретик дебютировал увидел рождение термина "искусственный интеллект". Вскоре после этого, Саймон предсказывают появление в 10 лет, так компьютеров смарт-они будут делать свои собственные математические открытия и стать чемпионом мира по шахматам. Это было предсказание, что считаться без человеческой природы. Обиженный претензий, предпринимаемые каждом лагере - и знать о конечной финансирования научных исследований в наличии -. Горького раскол между развитой те, кто видел нейронных сетей как путь вперед и тех, кто поддерживает подход на основе логики первую очередь страдают от последствий было нейронная Сеть исследований, финансирование которых все, кроме не перестает конце 1960-х годов до середины 1980-х годов. Распад был вызван книгой в соавторстве с из всех людей, Марвин Мински -. Один из пионеров нейронных сетей Раздраженный раздутой претензий для простых нейронных сетей, Минский утверждал, вся эта подход к ИИ был обречен. Его «доказательство» отдыхал на невозможности простых нейронных сетей для решения основной логический проблему. Даже в то время, исследователи знали решение: использовать более сложные нейронные сети. Это не имело никакого значения; финансирование иссяк; в течение следующих 15 лет подход на основе логики правил насест. AI внимание сосредоточено на так называемых экспертных систем, компьютеров, на основе логики программы могут якобы захватить человеческого опыта и разум вместе с ним. Перспектива того,, скажем, настольные консультанты на столе или пенсионных экспертов каждого врача общей практики в каждом высокой улице банка было заманчиво один. Как всегда, однако, реальность не соответствовала обману. Захват человек экспертиза подтвердила, сложнее, чем энтузиасты думал, и выполняя логические рассуждения сделаны большие требования компьютеров, то можно. К началу 1990-х годов, было ясно, что экспертные системы не Золотой Путь к ИИ либо. Какое-то время, маятник ажиотаж, казалось качать прямо назад нейронных сетей. К счастью, некоторые здравомыслие в настоящее время просочилась в исследовании А. И., с признанием этого - сюрприз, сюрприз -. Каждый подход имеет свои достоинства и недостатки подхода на основе логики, например, имеет тенденцию работать лучше всего в плотно, четко определенных областях, где Компьютер делает выводы из "Контрольный список" стиле ответов. Это привело к Проверка: финансовая операция становится одним из самых успешных приложений, хотя бы потому, клиенты часто требуют обоснования для конкретного решения, то, что логико-системы могут обеспечить. Обнаружение мошенничества, медицинская диагностика и контроль процесса и другие области, которые видели на основе логики успешно применяется А.И.. Трудность давая экспертные системы фонового знания, необходимые, чтобы сделать выводы также решить. Человека сами эксперты, не всегда ясно, как они достигают решения они делают; они также делают ошибки, и найти его трудно держать в курсе. Это привело к появлению экспертных систем, основанных на так называемых байесовских сетей, которые используют теорию вероятностей, чтобы включить новые и неопределенные данные в дальнейшем "опыт" для компьютера, чтобы рисовать. нейронных сетей, других основных нитей в истории А.И. , также успех в приложениях, которые играют в свои сильные стороны: паттерн-кровянистые выделения и изучения опыта. В отличие от логических систем на основе, нейронные сети не должны знать, что правила, вместо приобретения их навыки, подвергаясь большим количеством примеров. Они также хорошо справляются с новыми, неполных и зашумленных данных. Это сделало его идеальным для таких задач, как кровянистые выделения лица в толпе, обнаружение тенденции рынка в грязных наборов данных и управления сложными производственными процессами. Нейронные сети не слишком хорошо оправдывая свои действия, однако, - которые могут сделать их неприемлемыми для принятия решения, в силу судьбы или жизни находятся под угрозой. Это привело к появлению так называемых гибридных систем, где оба логика и нейронные технологии AI объединяются, чтобы дать лучшее из обоих миров. Спустя полвека исследований, все деньги и усилия выливают в технологии AI, конечно, начиная с расплачиваться. Наиболее успешные приложения, однако, как правило, были более хо-гул, чем научно-фантастического образа МА: нейронная сеть приготовления управления микроволновых печей Sharp, например, или экспертная система, что ветеринары транзакций по кредитным картам American Express в. При существующей технологии А.И. выталкивается ближе к научно-фантастического образа, результаты могут быть более раздражающим, чем впечатляет: Скрепка помощник свидетеля Microsoft, и АИ-основанные "Help-столы" некоторых высокотехнологичных компаний. Даже сейчас, спустя 50 лет после начала работы на интеллектуальных машин, только самые смелые клиенты доверяют автоматической телефонной системы продажи билетов в местном кинотеатре. Тем не менее, с богатой фантазией исследователи ИИ, работающих от мейнстрима уже снял некоторые поразительные достижения, с использованием методов ручной для выполнения этой задачи. Герберт Саймон в 1957 году предсказание, что компьютер будет сделать математическое открытие случилось 20 лет спустя, когда программа на основе логики имени А.М., разработанная Дуглас Ленат Стэнфордского университета, обнаружил, что каждый четное число, большее четыре, казалось, сумма два нечетных простых чисел. На самом деле, А. М. были обогнал к этому открытию прусской mathem





































переводится, пожалуйста, подождите..
Результаты (русский) 3:[копия]
Скопировано!
Она является одним из наиболее запоминающейся фразы в науке: искусственный интеллект, "AI", создание машин, которые могут думать. Только упоминается ассоциируется изображения HAL, слишком интеллектуальный компьютер в 2001 году: A Space Odyssey, и C3PO в сочетании, Батти робота от Star Wars.
на протяжении более чем полувека, компьютер ученые работают в направлении создания таких машин,Тратить миллиарды фунтов в организации покушения. И повесить над их усилия решению задач, поставленных в британский математик широко рассматривается как отец AI научные исследования: Алана Тьюринга.
в течение 1930-х гг. является недействительным, по крайней мере в теории, что "машина" может быть построен, способных выполнять все задачи любого специального назначения машины. После войны работы по код-ломаются,
переводится, пожалуйста, подождите..
 
Другие языки
Поддержка инструмент перевода: Клингонский (pIqaD), Определить язык, азербайджанский, албанский, амхарский, английский, арабский, армянский, африкаанс, баскский, белорусский, бенгальский, бирманский, болгарский, боснийский, валлийский, венгерский, вьетнамский, гавайский, галисийский, греческий, грузинский, гуджарати, датский, зулу, иврит, игбо, идиш, индонезийский, ирландский, исландский, испанский, итальянский, йоруба, казахский, каннада, каталанский, киргизский, китайский, китайский традиционный, корейский, корсиканский, креольский (Гаити), курманджи, кхмерский, кхоса, лаосский, латинский, латышский, литовский, люксембургский, македонский, малагасийский, малайский, малаялам, мальтийский, маори, маратхи, монгольский, немецкий, непальский, нидерландский, норвежский, ория, панджаби, персидский, польский, португальский, пушту, руанда, румынский, русский, самоанский, себуанский, сербский, сесото, сингальский, синдхи, словацкий, словенский, сомалийский, суахили, суданский, таджикский, тайский, тамильский, татарский, телугу, турецкий, туркменский, узбекский, уйгурский, украинский, урду, филиппинский, финский, французский, фризский, хауса, хинди, хмонг, хорватский, чева, чешский, шведский, шона, шотландский (гэльский), эсперанто, эстонский, яванский, японский, Язык перевода.

Copyright ©2024 I Love Translation. All reserved.

E-mail: