Этот сайт сделан для настоящих падонков.
Те, кому не нравяцца слова ХУЙ и ПИЗДА, могут идти нахуй.
Остальные пруцца!

tar729 :: Математика для падонкаф 2
Здравствуйте дарагие падонке. Сиводня мы с вами научемся правельно делить на нол.

Я думаю, что многие из вас, падонке, задавали себе вопрос, почему нельзя делить на ноль. Почему умножение на ноль делает число нулем. Аннигиляцияблеать?

Почему N^0=1? что вообще такое ноль?

Этой долбаной проблемой занимались многие математики, философы даже не одно тысячелетие, но так и не ответили на этот в общем то простой вопрос. Вопросов здесь гораздо больше, чем ответов, кстати ответы базируются на столь же мутных сущностях, таких как сингулярность, бесконечность. В Общем, объяснение при помощи мутных сущностей другую мутную сущность всех устраивает. Особенно это устраивает пидарасов математиков, которые по природе своей не способны и не хотят этими проблемами заниматься. Зачем? Ведь все эти заплатки так или иначе работают и приводят к нужным ответам, причинности которых никого не волнуют.

Мало кто знает из тех же математиков, что операции с нулем в их компьютерах не выводятся, а тупо подставляются уже в самих процессорах. Т.е. прежде, чем совершить с числом действие, оно проверяется на ноль и в случае равенства в силу вступает алгоритм подстановки правильного значения в ответ.

Разумеется, логиков такая ситуация напрягает, ведь все должно быть с логической точки зрения корректно ВЫЧИСЛЯТЬСЯ, а не подставляться.

В самом деле, логика, будучи полной системой (в отличии от матаппарата, к примеру, и вообще любой другой системы) не может позволить себе ни наличие неопределенностей, ни тем более сингулярностей, ни отсутствие каких бы то ни было запретов в логических операциях. Это прямое следствие полноты системы.

Значит логика как-то должна объяснять эти вещи корректно, без выдуманных дополнительных мутных сущностей.

Простейшим видом логики, является двоичная логика. Вот к ней и обратимся за решением этих вопросов. Ведь в двоичной логике не бывает неопределенного состояния по определению.

Чтобы ваш моск не перенапрягался, сразу скажу, что ноль, с точки зрения двоичной логики, вовсе не число, а двоичная функция. Вообще, если смотреть на какой-то объект из разных систем отсчета (а логика одна из таких систем), то объект в нем будет выглядеть по разному, тут ничего удивительного нет.

Простейший эксперимент с умножением на ноль в двоичной системе (если не заниматься подстановками), приводит к ответу вовсе не 0, равно как и деление на ноль не приводит к неопределенности (собственно, откуда же ей взяться в двоичной системе?). Удивляет то, что это никого не волнует, все просто закрывают глаза на этот факт.

Так что же это за функция такая? И почему вдруг функция?

Чтобы это понять, нужно вспомнить, что ноль, это начало координат в любой системе. В данном случае, в случае системы двоичной логики, которая состоит из функций, ноль и не может быть ничем иным, как тоже функцией. Числа по сути никакого отношения к логике не имеют, это совсем другая система, в которой единице приписывается некоторый объект. Логике абсолютно все равно с чем проделывать логические операции, т.е. не важно что является аргументами функций.

Так вот ноль, в системе чисел, означает не отсутствие числа, а начало системы отсчета. В отличии от числа, ноль является системообразующим объектом. Грубо говоря, производя какие либо логические операции с нулем, вы имеете дело не с пустотой, а с системой отсчета.

Например, деля 5 на ноль, вы масштабируете систему отсчета в большую сторону (в число раз, равное максимальному числу в системе). Поэтому число 5 тоже меняет свою размерность и выглядит гораздо больше, чем было, хотя количественно, представленная им сущность не изменяется, просто меняется измерительная шкала.

Умножая число на ноль, вы масштабируете систему отсчета в обратную сторону. Разумеется, меняется и само число, оно выглядит теперь другим числом, меньшим, ведь масштаб системы отсчета изменились.

Из-за того, что исходная система отсчета не определена (сколько делений на линейке, какова мощность данной системы отсчета) и получается при делении бесконечность, а при умножении 0 (стремление к нулю и стремление к бесконечности если быть точным).

Но если система отсчета определена и известна ее мощность (в компьютере например она определена разрядностью шины данных), то результаты деления и умножения получаются вполне корректными. Собственно, в логике и не может быть иначе.

Но вернемся к двоичной логике, в которой ноль, это функция, и не какая-нибудь, а функция инверсии. Почему инверсии? А разве есть варианты?

Во всяком случае, это очень легко доказывается РЕШЕНИЕМ одной из невыводимых математических истин (тобишь аксиом), вот она: N^0=1

Ноль применяется к функции на сей раз, к степенной. Степенная функция по правилу ее вывода из функции умножения, предлагает нам умножить основание степени само на себя. Но в данном случае следует инвертировать само правило вывода, ведь ноль, это инверсия, и применена она к степенной функции, а значит правило ее вывода теперь следует изменить на обратное. Вот и получается, что основание степени следует не умножать само на себя, а делить. N/N=1

Вот, собственно и решение вашей невыводимой математической истины.

И если вы думаете, что это совпадение, то вы сильно ошибаетесь, потому что достаточно вспомнить про то, каким образом в булевой алгебре операция сложения превращается в вычитание. Там используется побитная инверсия кода. Т.е. число, которое следует вычесть тупо побитно инвертируют и как обычно складывают с первым слагаемым, который не изменяют. А то, что получается в результате этого сложения, подвергают обратно побитной инверсии.

Т.е. изменив на противоположное критерии истинности аргументов в СИСТЕМЕ, вы тем самым изменили и функцию сложения на вычитание, хотя и складывали (если кто не в курсе, то в булевой алгебре нельзя делать операции вычитания, только сложения на сумматорах. "Вычитаторов" в булевой алгебре нет).

Однако, из-за того, что критерии истинности в системе были изменены, результат оказался в другой системе отсчета. При возвращении критериев истинности системы на прежнее место, вы получаете уже результат вычитания. Вот такая вот хитрая обманка происходит.

Можете сами проверить: A-B= i(iА+Б)

где, А и Б это двоичные числа, а i - это побитная инверсия.

Прикол в том, что эту формуло можно было бы тупо вывести из логики понимания того, что ноль является функцией инверсии, как я и сделал. Но вот в учебниках по булевой алгебре вы ее не найдете, потому что формула классическая появилась вовсе не из логики, а экспериментально.

Вот вам классическая формула, которая применяется: A-B=А+iБ+1

В общем, суть та же, хотя и не слишком понятно почему прибавление единицы приводит к тому же результату.

Еще более интересный эксперимент выродил Джон Фон Нейман, который вообще считается отцом кибернетики. Он всерьез решил избавить двоичный логический базис от функции инверсии и изобрел так называемый "метод двойных линий". Суть этого метода в представлении двоичного числа в троичной системе отсчета не прибегая к функции инверсии. Так вот при переходе одной системы отсчета в другую, исходное значение бита инвертировалось САМО. Сам Фон Нейман при этом понятно сильно прифигел и поспешил заявить об этом открытии научной общественности. Еще бы, ибавиться от инверсии в логическом базисе, это не шутка и тянет как минимум на Нобеля. Однако, все бы хорошо, если бы при попытке вернуться назад в двоичную систему инверсия бита так же магически бы не исчезала, что сделало его открытие совершенно бесполезным. Нэймана высмеяли и метод двойных линий канул в анналы науки.

Жаль, что Джон Фонблеать Нейман так и не понял, что он на самом деле открыл, хотя и был удивительно близок к прорыву понимания того, что такое ноль. А произошло вот что:

По сути он сделал то же самое, что делается при превращении сложения в вычитание, только на сей раз преобразование коснулось критериев истинности размерности системы, а не критериев истинности аргументов 0 и 1. Изменение размерности и привела к инверсии самих аргументов, и хотя по прежнему никаких инверсий не произошло, результатом стало совершенно другое число, что можно назвать преобразованием аналогичному инверсии одного входного бита из 2-х.

В результате обратного перехода в двоичную систему, число возвращалось на место.

Если бы научное сообщество и сам Нейман заострило свое внимание на факте изменения функции на обратную после ее переходав соседнюю размерность, то уже тогда в математическом мире произошла бы реолюция, но, этого не произошло. Если бы они не загнобили Неймана, уверен, он бы докопался до сути.

Так что же мы имеем в сухом остатке? А имеем мы не больше и не меньше, как открытый закон логики:

При переходе функции в соседнюю систему отсчета, функция не прерывается, а МОДИФИЦИРУЕТСЯ. Относительно предыдущей системы отсчета она обрывается, но это только относительно предыдущей системы отсчета. Если смотреть на все имеющееся множество систем отсчета в тех же декартах, то говорить о разрыве функции в нуле - уже не корректно.

То, что это не случайность поведения какой-то там отдельной функции, а системная закономерность, говорит о фундаментальности открытого явления, связанного с логикой трактования как самого нуля, так и его системных свойств, а также о роли самих систем отсчета в трактовании всех объектов, которые в них определены. Закон, который регламентирует в том числе и логику высказываний, при аналогичных переходах от одного мнения к чужому, заставляет менять критерии истинности этого высказывания вполне легитимным образом. Простой пример:

Вы дурак с моей точки зрения, а я дурак с вашей точки зрения. Имеем 2 системы отсчета (мозги каждого из нас со своим мнением и базирующихся на своих критериях истинности суждений о чем либо). В части контекста "дурак", очевидно каждая из сторон сделала вполне логичный и обоснованный вывод. Однако, логика высказывания для нахождения истины (некоторой функции, которая должна перейти из головы одного спорщика в голову другого), согласно этому новому закону, должна при переходе ИЗМЕНИТЬ критерии истинности на противоположные. Т.е. один из спорщиков должен согласиться, что он дурак с точки зрения второго спорщика. Но это не означает, что первый спорщик проигрывает, поскольку его истина остается при нем. Изменив таким образом свои критерии истинности, теперь уже находясь в системе отсчета второго спорщика, первый может продолжить поиск истины там и докопться до противоречия в базовых критериях истинности второго спорщика и таким образом конфликт между двумя закончится.

Это в общем такая вот банальность в технике спора, которой многие пользуются и так, безо всяких дополнительных закогов логики. Тем не менее, применение этого закона в быту очевидно полезно. Это кстати банальный метод доказательства "от противного" существование и принцип работы которого так никто до сих пор и не сподабливался доказывать (ну или я не нашел кто бы это делал). Между тем он эксплуатирует именно этот закон логики

Задайте кому-нибудь из преподов по математике вопрос, почему и на основании чего вы применяете метод от противного? Вряд ли вам кто-нибудь ответит. . Хотя, логика полная система, а это означает, что методов доказательства всегда больше одного.

Что касается применения этого закона в других системах отсчета, согласно основному принципу относительности, он проявляет себя аналогичным образом везде. Но наиболее интересным его проявление все же не в области математики, а в физике (путешествия в прошлое и все такое) и еще в большей степени в программировании искуственного интеллекта, которое вообще не представляется возможным без применения этого закона в программной и вычислительной среде...Но об этом мы поговорим как нибудь в другой раз...
(c) udaff.com    источник: http://udaff.com/read/nauka/126360.html