Результаты (
русский) 2:
[копия]Скопировано!
Теория информации является дисциплиной в области прикладной математики, связанных с количественной
данных с целью включения столько данных, сколько возможно, чтобы быть надежно хранится на
носителе или передаваться по каналу. Мера информации, известный как информации
энтропии, как правило, выражается средним числом битов, необходимых для хранения или передачи.
Например, если в день Описание погоды имеет энтропию 3 бита, то, в течение достаточно
дней, можно описать в день Погода в среднем около 3 бит в день.
Применение фундаментальных тем теории информации включают в себя данные без потерь
сжатия (например, файлы ZIP), сжатие с потерями данных (например, файлов MP3), и канал
кодирования (например, для DSL линии). Поле находится на перекрестке математики, статистики,
информатики, физики, нейробиологии и электротехники. Его влияние было
решающим для успеха миссии Voyager в глубоком космосе, изобретение компакт-диска,
технико-экономическое обоснование мобильных телефонов, развитие Интернета, изучение лингвистики
и человеческого восприятия, понимание черных дыр, а также многочисленные . другие поля Основные понятия теории информации можно понять, рассматривая наиболее распространенные средства человеческого общения: язык. Два важных аспекта языка являются: во-первых, наиболее распространенные слова (например, "а", "К"), должны быть короче, чем меньше общих слов (например, "выгода", "поколение", "посредственно"), таким образом, что предложения не будет слишком долго. Такой компромисс в длину слова аналогично сжатию данных и является важным аспектом кодирования источника. Во-вторых, если часть приговора неслыханное или ослышался из-за шума (может быть из проезжавшего мимо автомобиля) слушатель должен еще быть в состоянии подбирать значение базового сообщении. Такое надежность как важно для электронной системы связи, как и для языка; правильно строить такую надежность в коммуникаций сделано канального кодирования. Источник кодирования и канального кодирования являются основными озабоченность теории информации. Теория информации, как правило, считается, был основан в 1948 году Клод Шеннон E в своей фундаментальной работе ", Математическая теория связи». Центральный парадигма классической теории информации является инженерная проблема передачи информации через канал с шумом. Теория информации тесно связана с коллекцией чистой и прикладной дисциплины на были исследованы и сводится к инженерной практике при различных рубрикам протяжении всей Мир за последние полвека или более: адаптивные системы, упреждающие системы, искусственный интеллект, сложных систем, сложность науки, кибернетика, информатика, машинного обучения, наряду с системами наук многих описаниях. Теория информации является широкая и глубокая математическая теория, с одинаково широкими и глубокими приложений, среди которых есть жизненно области теории кодирования. Теория кодирования обеспокоен поисками явные методы, называемые коды, повышения эффективности и снижения чистой частоту ошибок Передача данных по каналу с шумом, чтобы вблизи границы, что Шеннон доказал является максимально возможным для данного канала. Эти коды могут быть примерно разделена на сжатие данных (кодирования источника) и исправления ошибок (кодирование канала) методов.
переводится, пожалуйста, подождите..
