domingo, 25 de noviembre de 2012

Notas sobre el concepto de número


El concepto de número natural que satisface las  exigencias de la Aritmética elemental no responde a la generalización y abstracción características de la operatoria algebraica.
En álgebra se desarrolla un cálculo de validez general aplicable a cualquier tipo especial de número. Conviene pues, considerar cómo se ha ampliado el campo de los números por la introducción de nuevos entes, que satisfacen las leyes que regulan las operaciones fundamentales, ya que, como veremos más adelante el número natural no nos sirve para efectuar la resta y la división en todos los casos. Baste por el momento, dado el nivel matemático que alcanzaremos a lo largo de este texto, explicar cómo se ha  llegado al concepto de número real.
Para hacer más comprensible la ampliación del campo de los números, adoptaremos un doble criterio. Por un lado, un criterio histórico que nos haga conocer la gradual aparición d las distinta clases de números; por otro, un criterio intuitivo que nos ponga de manifiesto cómo ciertas necesidades materiales han obligado  a los matemáticos a introducir nuevos entes numéricos. Este doble criterio, permitirá al principiante alcanzar una comprensión clara de  concepto formal (abstracto) de los números reales.

El número entero y el número fraccionario.
Mucho antes de  que los griegos (Eudoxio, Euclides, Apolonio, etc.) realizaran la sistematización de los conocimientos matemáticos, los babilonios (según muestran las tablillas cuneiformes que datan de 2000-1800 A.C.) y los egipcios ( como se ve en el papiro de Rhind) conocían las fracciones.
La necesidad de medir magnitudes continuas tales como la longitud, el volumen, el peso, etc., llevó al hombre a introducir los números fraccionarios.
Cuando tomamos una unidad cualquiera, por ejemplo, la vara, para medir una magnitud continua (magnitud escalar o lineal), puede ocurrir una de estas dos cosas: que la unidad esté contenida un número entero de veces, o que no esté contenida un número entero de veces. En el primer caso, representamos el resultado de la medición con un número entero. En el segundo caso, tendremos que fraccionar la unidad elegida en dos, en tres o en cuatro partes iguales; de este modo, hallaremos una fracción de la unidad que este contenida en la magnitud que tratamos de medir. El resultado de esta última medición lo expresamos con un par de números enteros, distintos de cero, llamados respectivamente numerador y denominador. El denominador nos dará en  el número de partes en que hemos dividido la unidad, y el numerador, el número de subunidades contenidas en la magnitud que acabamos de medir. Surgen de este modo los números fraccionarios. Son números fraccionarios  ½, 1/3, 3/5, etc.
Podemos decir también, que son números fraccionarios los que nos permiten expresar el cociente de una división inexacta, o loo que es lo mismo, una división en la cual el dividendo no es múltiplo del divisor.
Como se ve, en oposición a los números fraccionarios tenemos los números enteros, que podemos definir como aquellos que expresan el cociente de una división exacta, como por ejemplo 1, 2, 3, etc.

El número racional y el número irracional.

Siguiendo el orden histórico que nos hemos trazado, vamos a ver ahora cuándo y cómo surgieron los números irracionales.

Es indudable que fueron los griegos quienes conocieron primero los números irracionales. Los historiadores de la matemática, están de acuerdo en atribuir a Pitágoras  de Samos (540 A.C.), el descubrimiento de estos de estos números, al establecer la relación entre el lado de un cuadrado y la diagonal del mismo. Más tarde, Teodoro de Cirene (400 A.C.), matemático de la escuela pitagórica, demostró geométricamente  que √‾2, √‾3, √‾5, √‾7, etc., son irracionales. Euclides (300 A.C.), estudió en el Libro X  de sus 2Elementos”, ciertas magnitudes que al ser medidas no encontramos ningún número entero ni fraccionario que las exprese. Estas magnitudes se llaman inconmensurables y los  números que se originan al medir tales magnitudes se llaman irracionales. Ejemplos de tales magnitudes son la relación del lado de un cuadrado con la diagonal del mismo, que se expresa con el número irracional $\sqrt[]{a^2 + b^2}$ y la relación de la circunferencia al diámetro que se expresa con la letra $\pi  = 3.141592...$


 Como consecuencia de la introducción de  los números irracionales, consideramos racionales el conjunto de los números fraccionarios y el conjunto de los números enteros. Definimos el número racional como aquel número que puede expresarse como cociente de  dos enteros. Y el número irracional como aquel número real que no puede expresarse como el cociente de dos enteros. Llamamos  números reales al conjunto de  los números racionales e irracionales.

Los números positivos y negativos

Los números negativos no fueron conocido por los matemáticos de la antigüedad, salvo en el caso de  Diofanto (siglo III D.C.), que en su aritmética, al explicar el producto de dos diferencias, introduce un número con signo +. En el siglo VI,  los hindúes  Brahmagupta y Bháskara usan los números negativos de un modo práctico, sin llegar a dar una definición de ellos. Durante la Edad Media y el Renacimiento los matemáticos rehuyeron usar los números negativos, y fueron Newton el primero en comprender la verdadera naturaleza de estos números. Posteriormente Harriot (1560-1621) introdujo  los signos + y – para caracterizar  los números positivos y negativos.

La significación de los  números relativos o con signos (positivos y negativos) se comprende claramente, cuando los utilizamos para representar el resultado de medir magnitudes relativas, es decir , magnitudes cuyas cantidades pueden tomarse en sentidos opuestos, tal como sucede cuando tratamos de medir la longitud geográfica de un región determinada; o de expresar el grado de temperatura de un lugar dado. En el primer caso, podemos hablar de longitud este u oeste con respecto a un meridiano fijado arbitrariamente (Greenwich). En el segundo caso, podemos referirnos a grados sobre cero o grados bajo cero. Convencionalmente fijamos los números positivos o con signo +  en una dirección  y los números negativos o con signo - en la dirección opuesta.

Si sobre una semirrecta fijamos un punto cero, a partir del cual, hacia la derecha, señalamos puntos que  representan una determinada unidad, nos resultan los puntos A, B, C, etc. Si sobre esa misma semirrecta, a partir del punto cero (llamado origen), procedemos del mismo modo hacia la izquierda, tendremos los puntos a, b, c, etc. Si convenimos en que los puntos de la semirrecta indicado  a la derecha del punto cero representan  números positivos (A,B,C, etc.); los puntos señalados a la  izquierda (a, b, c, etc.), representarán números negativos.

Históricamente, los números negativos surgen para hacer posible la resta de todos los casos. De este modo, la resta se convierte en una operación inversa de la suma, y se hace posible restarle a un minuendo menor un sustraendo mayor.

Los números y los símbolos literales negativos se distinguen por el signo – que llevan antepuesto. 
El número cero.  Cuando tratamos de aprehender  el concepto de número natural, vemos cómo éste surge de la comparación de conjuntos equivalentes o coordinables entre sí. Por extensión  llamamos conjunto al que tiene un solo elemento y que se representa por el número 1.  Ahora, consideramos el número cero como expresión de un conjunto nulo o vacío, es decir, un conjunto que carece de elementos.
Por otra parte, el cero representa un elemento de separación entre los números negativos y positivos, de modo que el cero es mayor que cualquier número negativo y menor que cualquier número positivo. 
El siguiente diagrama nos aclarará las distintas clases de números con los cuales vamos a trabajar:





No hay comentarios: