domingo, 6 de febrero de 2011

Sistema Binario

     En matemáticas e informática, es un sistema de numeración en el que los números se representan utilizando solamente las cifras cero y uno (0 y 1). Es el que se utiliza en las computadoras, debido a que trabajan internamente con dos niveles de voltaje, por lo que su sistema de numeración natural es el sistema binario (encendido 1, apagado 0).












Historia
     El antiguo matemático indio Pingala presentó la primera descripción que se conoce de un sistema de numeración binario en el siglo III a. C.
     Una serie completa de 8 trigramas y 64 hexagramas (análogos a 3 bit) y números binarios de 6 bit eran conocidos en la antigua China en el texto clásico del I Ching. Series similares de combinaciones binarias también han sido utilizadas en sistemas de adivinación tradicionales africanos, como el Ifá, así como en la geomancia medieval occidental.
     En 1854, el matemático británico George Boole publicó un artículo que marcó un antes y un después, detallando un sistema de lógica que terminaría denominándose Álgebra de Boole. Dicho sistema desempeñaría un papel fundamental en el desarrollo del sistema binario actual, particularmente en el desarrollo de circuitos electrónicos.
     Un número binario puede ser representado por cualquier secuencia de bits (dígitos binarios), que suelen representar cualquier mecanismo capaz de estar en dos estados mutuamente excluyentes. Las siguientes secuencias de símbolos podrían ser interpretadas como el mismo valor numérico binario:



1 0 1 0 0 1 1 0 1 0
| - | - - | | - | -
x o x o o x x o x o
y n y n n y y n y n

 
     El valor numérico representado en cada caso depende del valor asignado a cada símbolo. En una computadora, los valores numéricos pueden representar dos voltajes diferentes; también pueden indicar polaridades magnéticas sobre un disco magnético. Un "positivo", "sí", o "sobre el estado" no es necesariamente el equivalente al valor numérico de uno; esto depende de la nomenclatura usada.



Aplicaciones
     En 1937, Claude Shannon realizó su tesis doctoral en el MIT, en la cual implementaba el Álgebra de Boole y aritmética binaria utilizando relés y conmutadores por primera vez en la historia. Titulada Un Análisis Simbólico de Circuitos Conmutadores y Relés, la tesis de Shannon básicamente fundó el diseño práctico de circuitos digitales.
     En noviembre de 1937, George Stibitz, trabajando por aquel entonces en los Laboratorios Bell, construyó una computadora basada en relés —a la cual apodó "Modelo K" (porque la construyó en una cocina, en inglés "kitchen")— que utilizaba la suma binaria para realizar los cálculos. Los Laboratorios Bell autorizaron un completo programa de investigación a finales de 1938, con Stibitz al mando. El 8 de enero de 1940 terminaron el diseño de una "Calculadora de Números Complejos", la cual era capaz de realizar cálculos con números complejos. En una demostración en la conferencia de la Sociedad Americana de Matemáticas, el 11 de septiembre de 1940, Stibitz logró enviar comandos de manera remota a la Calculadora de Números     
     
CÓDIGO BINARIO


     El código binario es el sistema de representación de textos, o procesadores de instrucciones de ordenador utilizando el sistema binario (sistema numérico de dos dígitos, o bit: el "0" y el "1"). En informática y telecomunicaciones, el código binario se utiliza con variados métodos de codificación de datos, tales como cadenas de caracteres, o cadenas de bits. Estos métodos pueden ser de ancho fijo o ancho variable.








Características
Ponderación
La mayoría de los sistemas de numeración actuales son ponderados, es decir, cada posición de una secuencia de dígitos tiene asociado un peso. El sistema binario es, de hecho, un sistema de numeración posicional ponderado. Sin embargo, algunos códigos binarios, como el código Gray, no son ponderados, es decir, no tienen un peso asociado a cada posición. Otros, como el mismo código binario natural o el BCD natural sí lo son.

Distancia

La distancia es una característica sólo aplicable a las combinaciones binarias. La distancia entre dos combinaciones es el número de bits que cambian de una a otra. Por ejemplo, si se tienen las combinaciones de cuatro bits 0010 y 0111, correspondientes al 2 y al 7 en binario natural, se dirá que la distancia entre ellas es igual a dos (ya que de una a otra cambian dos bits).
Además, con el concepto de distancia se puede definir la distancia mínima de un código. Ésta no es más que la distancia menor que haya entre dos de las combinaciones de ese código.

Continuidad

La continuidad es una característica de los códigos binarios que cumplen que todas las posibles combinaciones del código son adyacentes, es decir, que de cualquier combinación del código a la siguiente cambia un sólo bit. En este caso se dice que el código es continuo. Cuando la última combinación del código es, a su vez, adyacente a la primera, se trata de un código cíclico.

Autocomplementariedad



Se dice que un código binario es autocomplementario cuando el complemento a nueve del equivalente decimal de cualquier combinación del código puede hallarse invirtiendo los valores de cada uno de los bits (operación lógica unaria de negación) y el resultado sigue siendo una combinación válida en ese código. Esta característica se observa en algunos códigos BCD, como el código Aiken o el código BCD exceso 3. Los códigos autocomplementarios facilitan las operaciones aritméticas.














Sistema Binario

     En matemáticas e informática, es un sistema de numeración en el que los números se representan utilizando solamente las cifras cero y uno (0 y 1). Es el que se utiliza en las computadoras, debido a que trabajan internamente con dos niveles de voltaje, por lo que su sistema de numeración natural es el sistema binario (encendido 1, apagado 0).












Historia
     El antiguo matemático indio Pingala presentó la primera descripción que se conoce de un sistema de numeración binario en el siglo III a. C.
     Una serie completa de 8 trigramas y 64 hexagramas (análogos a 3 bit) y números binarios de 6 bit eran conocidos en la antigua China en el texto clásico del I Ching. Series similares de combinaciones binarias también han sido utilizadas en sistemas de adivinación tradicionales africanos, como el Ifá, así como en la geomancia medieval occidental.
     En 1854, el matemático británico George Boole publicó un artículo que marcó un antes y un después, detallando un sistema de lógica que terminaría denominándose Álgebra de Boole. Dicho sistema desempeñaría un papel fundamental en el desarrollo del sistema binario actual, particularmente en el desarrollo de circuitos electrónicos.
     Un número binario puede ser representado por cualquier secuencia de bits (dígitos binarios), que suelen representar cualquier mecanismo capaz de estar en dos estados mutuamente excluyentes. Las siguientes secuencias de símbolos podrían ser interpretadas como el mismo valor numérico binario:



1 0 1 0 0 1 1 0 1 0
| - | - - | | - | -
x o x o o x x o x o
y n y n n y y n y n

 
     El valor numérico representado en cada caso depende del valor asignado a cada símbolo. En una computadora, los valores numéricos pueden representar dos voltajes diferentes; también pueden indicar polaridades magnéticas sobre un disco magnético. Un "positivo", "sí", o "sobre el estado" no es necesariamente el equivalente al valor numérico de uno; esto depende de la nomenclatura usada.



Aplicaciones
     En 1937, Claude Shannon realizó su tesis doctoral en el MIT, en la cual implementaba el Álgebra de Boole y aritmética binaria utilizando relés y conmutadores por primera vez en la historia. Titulada Un Análisis Simbólico de Circuitos Conmutadores y Relés, la tesis de Shannon básicamente fundó el diseño práctico de circuitos digitales.
     En noviembre de 1937, George Stibitz, trabajando por aquel entonces en los Laboratorios Bell, construyó una computadora basada en relés —a la cual apodó "Modelo K" (porque la construyó en una cocina, en inglés "kitchen")— que utilizaba la suma binaria para realizar los cálculos. Los Laboratorios Bell autorizaron un completo programa de investigación a finales de 1938, con Stibitz al mando. El 8 de enero de 1940 terminaron el diseño de una "Calculadora de Números Complejos", la cual era capaz de realizar cálculos con números complejos. En una demostración en la conferencia de la Sociedad Americana de Matemáticas, el 11 de septiembre de 1940, Stibitz logró enviar comandos de manera remota a la Calculadora de Números     
     
CÓDIGO BINARIO


     El código binario es el sistema de representación de textos, o procesadores de instrucciones de ordenador utilizando el sistema binario (sistema numérico de dos dígitos, o bit: el "0" y el "1"). En informática y telecomunicaciones, el código binario se utiliza con variados métodos de codificación de datos, tales como cadenas de caracteres, o cadenas de bits. Estos métodos pueden ser de ancho fijo o ancho variable.








Características
Ponderación
La mayoría de los sistemas de numeración actuales son ponderados, es decir, cada posición de una secuencia de dígitos tiene asociado un peso. El sistema binario es, de hecho, un sistema de numeración posicional ponderado. Sin embargo, algunos códigos binarios, como el código Gray, no son ponderados, es decir, no tienen un peso asociado a cada posición. Otros, como el mismo código binario natural o el BCD natural sí lo son.

Distancia

La distancia es una característica sólo aplicable a las combinaciones binarias. La distancia entre dos combinaciones es el número de bits que cambian de una a otra. Por ejemplo, si se tienen las combinaciones de cuatro bits 0010 y 0111, correspondientes al 2 y al 7 en binario natural, se dirá que la distancia entre ellas es igual a dos (ya que de una a otra cambian dos bits).
Además, con el concepto de distancia se puede definir la distancia mínima de un código. Ésta no es más que la distancia menor que haya entre dos de las combinaciones de ese código.

Continuidad

La continuidad es una característica de los códigos binarios que cumplen que todas las posibles combinaciones del código son adyacentes, es decir, que de cualquier combinación del código a la siguiente cambia un sólo bit. En este caso se dice que el código es continuo. Cuando la última combinación del código es, a su vez, adyacente a la primera, se trata de un código cíclico.

Autocomplementariedad



Se dice que un código binario es autocomplementario cuando el complemento a nueve del equivalente decimal de cualquier combinación del código puede hallarse invirtiendo los valores de cada uno de los bits (operación lógica unaria de negación) y el resultado sigue siendo una combinación válida en ese código. Esta característica se observa en algunos códigos BCD, como el código Aiken o el código BCD exceso 3. Los códigos autocomplementarios facilitan las operaciones aritméticas.














martes, 1 de febrero de 2011

El Ordenador

     Una computadora o un computador también denominada ordenador, es una máquina electrónica que recibe y procesa datos para convertirlos en información útil.El ordenador ha ido evolucionando.

     El hardware ha sido un componente importante del proceso de cálculo y almacenamiento de datos desde que se volvió útil para que los valores numéricos fueran procesados y compartidos.


Sus partes son:
• Cerebro de la maquina (CPU)
• Ratón
• Monitor
• Impresora
• Teclado
     En su interior realiza diversos cálculos, el Código binario en este un uno indica encendido.
     El ordenador más rápido del mundo está dedicado a la seguridad nacional, su nombre es ASCI WHITE, pesa 28 toneladas y su función es la simulación de pruebas nucleares, gasta la misma energía que consumen 1.000 hogares estadounidenses y es capaz de realizar 12,3 billones de cálculos por segundo.

Charles Babbage se le consideró el padre del Ordenador, también inventó el salvaganado, también creo el Motor Analítico.
     El siguiente paso de la evolución del ordenador fue en el siglo XIX, mucha gente pedían q crearan una manera más eficaz para realizar una tabulación, esto se vio en la realización de un censo.
     Actualmente el Ordenador también conocido como Computadora, ha sido de mucha importancia, ya que gracias a ella y al internet se nos facilita más la búsqueda de Información ya sea para una cuestión académica o cultural.
     Con el paso del tiempo esta máquina ha ido evolucionando tanto en el tamaño como en la rapidez de su funcionalidad.


Historia de Microsoft
     Todo el mundo relacionado con la informática conoce de esta empresa. Algunas la idolatran y otros la odian. A continuación su historia.
     La compañía fue fundada en 1975 por William H. Gates III y Paul Allen.
     En 1977 Microsoft lanzó al mercado su segundo producto, Microsoft FORTRAN, otro lenguaje de programación, y pronto sacó versiones del lenguaje BASIC para los microprocesadores 8080 y 8086.






lunes, 17 de enero de 2011

Sociedad de la Información y Tecnologías de la Información
    
    En tal orden de cosas, las tecnologías de la información y la comunicación
 han adquirido un papel económico, político y social de primera importancia,
tanto por la acelerada evolución y expansión de uno de sus componentes de mayor
importancia, las telecomunicaciones –un sector que, como lo comprueban las
cifras, al menos antes de la crisis global, se había convertido en el más dinámico
de la economía mundial–, como por su condición estratégica para los procesos
productivos, de frente a los requerimientos del capitalismo en su etapa de
globalización.

    Así pues, las telecomunicaciones,han amplificado
su función de agitadores económicos de primer orden, y por tanto constituyen
elementos de la infraestructura esencial del nuevo paradigma productivo.
     Es claro que para construir la sociedad de la información se requerirá de una
importante infraestructura de telecomunicaciones, tanto a nivel de los Estados
nacionales como en un plano mundial para una vinculación global.
    
    En la acutalidad las tecnologías son muy utilizadas, ya que son un medio por el cual mucha gente puede informarse de temas que sean de interés para ellos, conocer gente nueva, es decir, socializar.



     La desventaja de las tecnologías de la información es que actualemente la manera de conocer gente es por páginas sociales, y gracias a eso se ha perdido lo que es el contacto visual entre las personas.

Y a pasado muchas veces que por este medio mucha gente a llegado a ser secuestrada, pero por eso mismo cada individuo debe tomar sus precauciones, sobre lo que dice al platicar con una persona desconocida o bien lo que publica en su página.











MusicPlaylist
Music Playlist at MixPod.com

jueves, 13 de enero de 2011

La Sociedad de la Información

Una sociedad de la información es aquella en la cual las tecnologías que facilitan la creación, distribución y manipulación de la información juegan un papel importante en las actividades sociales, culturales y económicas. La noción de sociedad de la información ha sido inspirada por los programas de los países industrializados. El término sería más bien un término político que teórico, pues se presenta como una aspiración estratégica que permitiría superar el estancamiento social.

Se trate de estamentos supranacionales como la Comisión Europea, órganos estatales, gobiernos regionales, ayuntamientos o grupos industriales, el argumento central es que la 'sociedad de la información' crearía y aseguraría millones de nuevos empleos. Si se extrae la esencia de las numerosas declaraciones programáticas en línea con la emergencia de la 'sociedad de la información', se observa que están dominadas por cuatro temas principales : La 'sociedad de la información' supuestamente garantizaría competitividad económica y crearía nuevos empleos; aportaría ventajas ecológicas; intensificaría la democracia; revolucionaría nuestros modos de vida y de trabajo con la ayuda de las nuevas tecnologías de la información y la comunicación. El término se encuentra en el centro de los debates de la denominada brecha digital.