Смекни!
smekni.com

Исторические проблемы математики. Число и арифметическое действие (стр. 1 из 3)

А.И. Сомсиков

Определение чисел

Всякий раз, когда встречается ситуация, описание которой, в силу ее сложности, затруднительно и требует многих слов, описание заменяется специальным термином (наименованием ситуации) с целью достижения краткости и связанной с ней ясности во всякого рода суждениях об этой ситуации, в которых она должна фигурировать в качестве члена предложения.

Сказанное относится, в частности, и к ситуациям, связанным с наличием интересующих нас объектов (ИНО).

Так, например, отсутствие ИНО обозначается термином "ноль", говорят: "имеется ноль объектов" или "задано число ноль" вместо: "ИНО не имеется", "ИНО отсутствуют".

Другая интересующая нас ситуация (ИНС): "ИНО имеется и, кроме него, нет никаких других объектов, подпадающих под определение ИНО" коротко обозначается термином "один", говорят: "имеется один объект" или "задано число один", не прибегая к описанию ситуации.

ИНС: "ИНО имеется и кроме него имеется еще и другой объект, подпадающий под определение ИНО, и, кроме упомянутых, никаких других объектов, подпадающих под определение ИНО, не имеется" обозначается термином "два", говорят: "имеется два объекта" или "задано число два".

Следующая ИНС: "имеется два ИНО и кроме них имеется еще один объект, подпадающий под определение ИНО и, кроме упомянутых, никаких других объектов, подпадающих под определение ИНО, не имеется" обозначается термином "три", говорят еще: "имеется три ИНО" или "задано число три" и т.д.

Числа, таким образом, это наименования различных ИНС, касающихся наличия ИНО.

Итак, мы знаем, что такое число.

Определения математики

Здесь все обстоит очень просто.

В математике нет прямого определения чисел. Ни предварительного, требующего уточнений, как у Евклида, ни окончательного. Вообще никакого.

Есть утверждения о “многовековом опыте абстрагирования и обобщений” человечества, т.е. не математиков. Уживающиеся с противоположными утверждениями о неспособности к абстрагированию “дикарей”, т.е. того же человечества на большей части его истории.

Изредка об этом говорится прямо. Например:

“Понятие о натуральном числе является одним из простейших понятий. Его можно пояснить лишь предметным показом.

Примечание: Евклид (III в до н.э.), определял число (натуральное) как "множество, составленное из единиц"; такого рода определения можно найти и во многих нынешних учебниках. Но слово "множество (или "собрание" или "совокупность" и т.п.) отнюдь не понятнее слова "число"” [ 1 ].

Здесь термин “элементарная математика” использован для введения в заблуждение. Чтобы изучающий постеснялся задавать какие-либо вопросы. То есть для его отключения, поскольку здесь все ведь “элементарно”. Из-за такого намеренного отключения вопрос этот до сих пор остается все еще не решенным. Хотя освоивший “элементарную” математику считается имеющим не элементарное, а уже “среднее” образование. Но и при “высшем” образовании к этому больше не возвращаются. Такой вопрос считаются вполне изученным еще на “элементарном” уровне. Или предметом излишних философских умствований.

Это первый универсальный способ сокрытия незнания: то, что не удается определить, следует называть очевидным или элементарным.

В математике “знание чисел” сводится к знанию правил обращения с ними. Обеспечивающих выполнение “арифметических действий”. Смысл которых тоже может быть не известен.

Вот сообщение того же источника:

“Понятие о том, что такое сложение, возникает из таких простых фактов, что оно не нуждается в определении и не может быть определено формально.

Примечание: Часто даются "определения" вроде таких: "сложение есть действие, посредством которого несколько чисел соединяются в одно", или "действие, посредством которого находится, сколько единиц содержится в нескольких числах вместе". Но тот, кто не знал бы, что значит "сложить", не знал бы и что такое "соединить числа", так что все подобные "определения" сводятся лишь к замене одних слов другими”.

Взамен объяснения смысла сложения дается утверждение, что все это “простые факты”. Хотя с вопроса именно о таком “простом факте” и начинается с подачи Лейбница критика Канта [ 2 ]. Вылившаяся в толстый том философских рассуждений. Это как раз по Канту слагаемые “соединяются в одно число” (сумму), как бы сливаясь или “синтезируясь” в нем, подобно атомам в составе молекулы. Такая поверхностная аналогия не дает реального понимания смысла данного действия.

Приведенная цитата в части отсутствия определения, конечно, правильна.

Но утверждение, что действие сложения “не может быть определено формально” никак отсюда не вытекает и остается всего лишь мнением автора. Чем-то вроде “неизвестно, следовательно, невозможно”. Простая логическая ошибка.

Можно привести много цитат, характеризующих нынешнее понимание математики.

Автор, имеющий неосторожность озаглавить свое сочинение “Что такое число?”, вынужден сразу же уходить от прямого ответа:

“Когда школьник впервые знакомится с математикой, ему говорят, что это – наука о числах и геометрических фигурах. Вузовский курс математики обычно начинается с аналитической геометрии, основная цель которой – выразить геометрические понятия на языке чисел. Таким образом, получается, что числа – это единственный предмет изучения в математике.

Правда, если вы откроете современный научный журнал и попробуете прочитать какую-нибудь статью по математике, то вполне вероятно, что вы не встретите в этой статье ни одного числа “в чистом виде”. Вместо них речь идет о множествах, функциях, операторах, категориях, мотивах и т.д. Однако, во-первых, почти все эти понятия так или иначе опираются на понятие числа, а, во-вторых, конечный результат любой математической теории, как правило, выражается на языке чисел.

Поэтому мне кажется небесполезным обсудить со студентами-математиками вопрос, поставленный в заголовке этой книги.

Разумеется, одно только описание исторического развития понятия числа или обсуждение его философского смысла требует много времени и места. Об этом уже написано немало толстых книг. Моя цель более проста и конкретна – показать, какой смысл придается понятию числа в современной математике, рассказать о задачах, которые возникают в связи с разным пониманием чисел, и о том, как эти задачи решаются. Конечно, в каждом случае я смогу лишь кратко описать самые начала соответствующей теории. Для тех читателей, которые захотят разобраться в ней подробнее, я указываю подходящую литературу” [ 3 ].

Здесь нет ответа на главный вопрос: что же такое число? На деле такой вопрос даже не ставится.

Изящным маневром само “понятие числа” сразу же заменяется его “историческим развитием” (что означает также замену самой математики какой-то ее историей). Или же упоминается “обсуждение его философского смысла” (что тоже означает замену математики философией, проще говоря, неопределенными рассуждениями на тему о числах). И все это вводится вовсе не в основной части текста, а всего лишь к нему предисловии. Как если бы этот вопрос был абсолютно несущественным и второстепенным. Чуть ли не в разделе “да, чуть не забыли”.

И при этом нарочито небрежно, походя, одной фразой. Поскольку, видите ли, требует много времени и места. Так много, что в книге, должно быть, просто не уместилось. Хотя и сообщается, что об этом уже написано много других книг. Которые сам автор, надо думать, уже прочел. Ну и что он там вычитал?

Где требуемое определение этого основного понятия математики? Являющегося также исходным или первичным.

Ответом служит глубокомысленное молчание.

А вот другое сообщение, тоже увиливающее от прямого ответа в область исторического развития понятия числа. Предназначенное для учителей. Это, вероятно, максимум того, что можно вообще узнать в институте:

Что такое число?

В XYIII веке математики считали понятие числа совершенно простым и ясным. “Ничто не является более простым и более известным людям, - указывал Боссю, - чем идея числа”.

Они полагали возможным дать о б щ е е определение понятия числа, способное быть д е й с т в е н н ы м началом логического развития арифметики л ю б ы х ч и с е л. “Надлежит прежде всего о числах иметь ясное понятие”, - писал Эйлер и тут же добавлял, что т о л ь к о п о н и м а н и е п р и р о д ы ч и с е л г а р а н т и р у е т п о н и м а н и е в о з м о ж н ы х д е й с т в и й н а д н и м и и о с т а л ь н ы х и х с в о й с т в. “… всякий способ изображения чисел, - пишет Эйлер, - требует к арифметическим действиям особых правил, которые надлежит производить от свойств оных чисел, кои употребляются”.

Учебники арифметики этого времени часто начинались категорическим утверждением: изучить арифметику может только тот, кто знает, что есть число. Такое утверждение гармонически сочеталось с трактовкой математики как науки о величинах.

В первой половине XYIII века авторы руководств по арифметике, статей в энциклопедиях и т.п. обычно определяли понятие числа по Евклиду: число есть множество единиц. Так по существу трактовал понятие числа Л. Магницкий. Определение Евклида сохраняется и во второй половине XYIII века, правда, как увидим, не в прежнем его толковании как общего понятия числа. Еще до XYIII века применение определения Евклида встретилось с рядом трудностей. Именно, опираясь на него, нужно было признать, что 0 и 1 не являются числами: нуль есть только знак для “ничто”; единица означает только одну вещь, она – основание, “причина” числа, но не число. Известно, что такая трактовка понятия единицы была развита в древней Греции. Потом она перешла к математикам Среднего востока и Западной Европы и имела последователей еще в XYII веке. Решающим, однако, было то, что определение Евклида по видимости мирилось с существованием дробных чисел, но не охватывало числа иррациональные. Этот факт учитывал Лейбниц и некоторые другие математики XYII века. “Понятие числа во всем объеме, - писал Лейбниц, - охватывает числа целые, дробные, иррациональные и трансцендентные”. Все возрастающая роль иррациональных чисел в механике, математическом анализе и алгебре способствовала тому, что во второй половине XYIII века чаще появляются и, наконец, завоевывает господствующее положение иное общее определение числа, выдвинутое Ньютоном: “число есть отношение одной величины к другой, того же рода, принятой за единицу”. Это определение охватывало как равноправные положительные целые, дробные, и иррациональные числа. Именно в этом обстоятельстве Даламбер и Котельников усматривали превосходство определения Ньютона. Единица становилась полноправным числом: измеряемая величина могла оказаться равной единице меры. Нуль, однако, по-прежнему выступал как знак “ничто”. Правда, в алгебре наметилось иное толкование нуля, как “середины” между положительными и отрицательными величинами, но в арифметику оно не проникло. Взгляд на нуль, как на число, стал завоевывать всеобщее признание с конца XYIII века в связи с разработкой вопросов обоснования арифметических действий. И это естественно, если учесть господствующую в это время чисто количественную трактовку понятия числа. На определение Ньютона опирались Эйлер, Лагранж и Лаплас. Его придерживались С. Котельников, А. Барсов и многие другие.