This is default featured slide 1 title

Go to Blogger edit html and find these sentences.Now replace these sentences with your own descriptions.

This is default featured slide 2 title

Go to Blogger edit html and find these sentences.Now replace these sentences with your own descriptions.

This is default featured slide 3 title

Go to Blogger edit html and find these sentences.Now replace these sentences with your own descriptions.

Servidores

Es una aplicación en ejecución (software) capaz de atender las peticiones de un cliente y devolverle una respuesta en concordancia.

Programación

Es el proceso de diseñar, codificar, depurar y mantener el código fuente de programas de computadora.

domingo, 29 de octubre de 2017

Tipos de Redes Informáticas

Un elemento que debe tenerse en cuenta cuando queremos instalar una red informática en nuestro negocio es el alcance o área de cobertura. ¿Puedo poner una red de área personal, u obligatoriamente me conviene más una LAN o red local? ¿Qué tipos de redes informáticas existen según el alcance?

En principio, lo lógico es que la mayoría de los pequeños negocios puedan funcionar perfectamente con una red local. No obstante, en el caso de empresas con grandes instalaciones, puede hacer falta mayor extensión si hablamos de un área de cobertura de gran superficie. En este artículo vamos a explicarte qué tipos de redes se pueden instalar.

Qué tipos de redes informáticas hay según su alcance

Al margen de que puedan hacerse por cable estructurado, o por vía inalámbrica, las redes pueden dividirse por su alcance o cobertura. Lógicamente, cuanto mayor sea el espacio que queremos abarcar, más difícil y costosa puede resultar la instalación de cables (de hecho, la instalación de algunas de estas redes serían absurdas e impensables para una gran mayoría de las empresas). En cualquier caso, son las siguientes:

1. RED DE ÁREA PERSONAL (PAN)

Hablamos de una red informática de pocos metros, algo parecido a la distancia que necesita el Bluetooth del móvil para intercambiar datos. Son las más básicas y sirven para espacios reducidos, por ejemplo si trabajas en un local de una sola planta con un par de ordenadores.

Las redes PAN pueden serte útiles si vas a conectar pocos dispositivos que no estén muy lejos entre sí. La opción más habitual, sin embargo, para aumentar el radio de cobertura y para evitar la instalación de cablea estructurado, suele ser la compra de un router y la instalación de una red de área local inalámbrica.

2. RED DE ÁREA LOCAL (LAN).

Es la que todos conocemos y la que suele instalarse en la mayoría de las empresas, tanto si se trata de un edificio completo como de un local. Permite conectar ordenadores, impresoras, escáneres, fotocopiadoras y otros muchos periféricos entre sí para que puedas intercambiar datos y órdenes desde los diferentes nodos de la oficina.

Las redes LAN pueden abarcar desde los 200 metros hasta 1 kilómetro de cobertura.

3. RED DE ÁREA DE CAMPUS (CAN).

Vale, supongamos que tenemos varios edificios en los que queremos montar una red inalámbrica. ¿Qué pasa si el área de cobertura debe ser mayor a los 1000 metros cuadrados? Y no lo digo sólo por las universidades; las instalaciones de los parques tecnológicos, recintos feriales y naves comerciales pueden superar perfectamente esa superficie.

En tal caso, tenemos las redes CAN. Habría varias redes de área local instaladas en áreas específicas, pero a su vez todas ellas estarían interconectadas, para que se puedan intercambiar datos entre sí de manera rápida, o pueda haber conexión a Internet en todo el campus.

4. RED DE ÁREA METROPOLITANA (MAN)

Mucho más amplias que las anteriores, abarcan espacios metropolitanos mucho más grandes. Son las que suelen utilizarse cuando las administraciones públicas deciden crear zonas Wifi en grandes espacios. También es toda la infraestructura de cables de un operador de telecomunicaciones para el despliegue deredes de fibra óptica. Una red MAN suele conectar las diversas LAN que hay en un espacio de unos 50 kilómetros.

5. RED DE ÁREA AMPLIA (WAN)

Son las que suelen desplegar las empresasproveedoras de Internet para cubrir las necesidades de conexión de redes de una zona muy amplia, como una ciudad o país.

6. RED DE ÁREA DE ALMACENAMIENTO (SAN)

Es una red propia para las empresas que trabajan con servidores y no quieren perder rendimiento en el tráfico de usuario, ya que manejan una enorme cantidad de datos. Suelen utilizarlo mucho las empresas tecnológicas. En Cisco te cuentan las ventajas de una red SAN.

7. RED DE ÁREA LOCAL VIRTUAL (VLAN)

Las redes de las que hablamos normalmente se conectan de forma física. Las redes VLAN se encadenan de forma lógica (mediante protocolos, puertos, etc.), reduciendo el tráfico de red y mejorando la seguridad. Si una empresa tiene varios departamentos y quieres que funcionen con una red separada, la red VLAN.

Espero que con esto tengas una imagen un poco más clara de las diferentes redes informáticas según su alcance. Si quieres saber más, puedes ver el artículo “Tipos de redes informáticas según su topología”. Lo más lógico en una PYME es que necesite simplemente una LAN, pero para casos de mayor envergadura o si se quiere que las redes funcionen de forma separada, es bueno conocer que hay otras posibilidades.

¿Qué alcance tiene la red informática de tu casa o empresa? ¿Llega a todos los puntos del edificio, o hay sitios en los que no hay manera de conectarse?

Topologías de Red

¿Qué es la topología de una red?
La topología de una red es el arreglo físico o lógico en el cual los dispositivos o nodos de una red (e.g. computadoras, impresoras, servidores, hubs, switches, enrutadores, etc.) se interconectan entre sí sobre un medio de comunicación.

a) Topología física: Se refiere al diseño actual del medio de transmisión de la red.
b) Topología lógica: Se refiere a la trayectoria lógica que una señal a su paso por los nodos de la red.

Existen varias topologías de red básicas (ducto, estrella, anillo y malla), pero también existen redes híbridas que combinan una o más de las topologías anteriores en una misma red.

Topología de ducto (bus)
Una topología de ducto o bus está caracterizada por una dorsal principal con dispositivos de red interconectados a lo largo de la dorsal. Las redes de ductos son consideradas como topologías pasivas. Las computadoras "escuchan" al ducto. Cuando éstas están listas para transmitir, ellas se aseguran que no haya nadie más transmitiendo en el ducto, y entonces ellas envían sus paquetes de información. Las redes de ducto basadas en contención (ya que cada computadora debe contender por un tiempo de transmisión) típicamente emplean la arquitectura de red ETHERNET.

Las redes de bus comúnmente utilizaban cable coaxial como medio de comunicación, las computadoras se contaban al ducto mendiante un conector BNC en forma de T. En el extremo de la red se ponia un terminador (si se utilizaba un cable de 50 ohm, se ponia un terminador de 50 ohms también). Eran muy susceptibles a quebraduras de cable coaxial, conectores y cortos en el cable que son muy díficiles de encontrar. Un problema físico en la red, tal como un conector T, puede tumbar toda la red.

Con la entrada del cable par trenzado, la topología de ducto fue un poco más robusta, pero seguía existiendo la contensión para accesar al cabla dorsal. Ese problema de colisiones se redujo al segmentar las redes en pocos nodos. A pesar de esos problema la topología de ducto con Ethernet es la más utilizada para redes de área local (LAN). 

En ambientes MAN (Metropolitan Area Network), las compañías de televisión por cable utilizan esta topología para extender sus redes.

Topología de estrella (star)
En una topología de estrella, las computadoras en la red se conectan a un dispositivo central conocido como concentrador (hub en inglés) o a un conmutador de paquetes (swicth en inglés).

En un ambiente LAN cada computadora se conecta con su propio cable (típicamente par trenzado) a un puerto del hub o switch. Este tipo de red sigue siendo pasiva, utilizando un método basado en contensión, las computadoras escuchan el cable y contienden por un tiempo de transmisión.

Debido a que la topología estrella utiliza un cable de conexión para cada computadora, es muy fácil de expandir, sólo dependerá del número de puertos disponibles en el hub o switch (aunque se pueden conectar hubs o switchs en cadena para así incrementar el número de puertos). La desventaja de esta topología en la centralización de la comunicación, ya que si el hub falla, toda la red se cae.

Hay que aclarar que aunque la topología física de una red Ethernet basada en hub es estrella, la topología lógica sigue siendo basada en ducto.

La topología de estrella es bastante utilizada en redes MAN y WAN (Wide Area Network), para comunicaciones vía satélite y celular.

Topología de anillo (ring)
Una topología de anillo conecta los dispositivos de red uno tras otro sobre el cable en un círculo físico. La topología de anillo mueve información sobre el cable en una dirección y es considerada como una topología activa. Las computadoras en la red retransmiten los paquetes que reciben y los envían a la siguiente computadora en la red. El acceso al medio de la red es otorgado a una computadora en particular en la red por un "token". El token circula alrededor del anillo y cuando una computadora desea enviar datos, espera al token y posiciona de él. La computadora entonces envía los datos sobre el cable. La computadora destino envía un mensaje (a la computadora que envió los datos) que de fueron recibidos correctamente. La computadora que transmitio los datos, crea un nuevo token y los envía a la siguiente computadora, empezando el ritual de paso de token o estafeta (token passing) nuevamente.

La topología de anillo es muy utlizada en redes CAN y MAN, en enlaces de fibra óptica (SONET, SDH) y FDDI en redes de campus.

Topología de malla (mesh)
La topología de malla (mesh) utiliza conexiones redundantes entre los dispositivos de la red aí como una estrategía de tolerancia a fallas. Cada dispositivo en la red está conectado a todos los demás (todos conectados con todos). Este tipo de tecnología requiere mucho cable (cuando se utiliza el cable como medio, pero puede ser inalámbrico también). Pero debido a la redundancia, la red puede seguir operando si una conexión se rompe.

Las redes de malla, obviamente, son mas difíciles y caras para instalar que las otras topologías de red debido al gran número de conexiones requeridas.

La red Internet utiliza esta topología para interconectar las diferentes compañías telefónicas y de proveedoras de Internet, mediante enlaces de fibra óptica.

Red de Computadoras

Una red de computadoras (también llamada red de ordenadoresred de comunicaciones de datosred informática) es un conjunto de equipos informáticos y software conectados entre sí por medio de dispositivos físicos que envían y reciben impulsos eléctricosondas electromagnéticas o cualquier otro medio para el transporte de datos, con la finalidad de compartir información, recursos y ofrecerservicios.

Como en todo proceso decomunicación, se requiere de un emisor, un mensaje, un medio y un receptor. La finalidad principal para la creación de una red de ordenadores es compartir los recursos y la información en la distancia, asegurar la confiabilidad y la disponibilidad de la información, aumentar la velocidad de transmisión de los datos y reducir el costo. Un ejemplo es Internet, el cual es una gran red de millones de ordenadores ubicados en distintos puntos del planeta interconectados básicamente para compartir información y recursos.

La estructura y el modo de funcionamiento de las redes informáticas actuales están definidos en varios estándares, siendo el más importante y extendido de todos ellos el modelo TCP/IP basado en el modelo de referencia OSI. Este último, estructura cada red en siete capas con funciones concretas pero relacionadas entre sí; en TCP/IP se reducen a cuatro capas. Existen multitud de protocolos repartidos por cada capa, los cuales también están regidos por sus respectivos estándares.

sábado, 14 de octubre de 2017

Windows Server 2012

Windows Server 2012 es la penúltima edición lanzada por Microsoft del sistema operativo Windows Server. Es la versión para servidores de Windows 8 y es el sucesor de Windows Server 2008 R2. El software está disponible para los consumidores desde el 4 de septiembre de 2012.
A diferencia de su predecesor, Windows Server 2012 no tiene soporte para computadoras con procesadores Intel Itanium y se venden cuatro ediciones. Se han agregado o mejorado algunas características comparado con Windows Server 2008 R2, como una actualización de Hyper-V, un rol de administración de direcciones IP, una nueva versión del Administrador de Tareas de Windows, y se presenta un nuevo sistema de archivos: ReFS.

Historia
Originalmente Microsoft se refería a la versión en desarrollo por su nombre clave: Windows Server 8. No obstante, desde el 17 de abril de 2012 la compañía anunció que el nombre final del producto sería Windows Server 2012.
La primera beta de Windows Server 2012 fue la llamada Developer Preview, destinada a los desarrolladores, únicamente disponible para suscriptores de MSDN. Desde entonces ya estaba presente la interfaz de usuario Metro así como el nuevo Administrador de Servidores (la aplicación gráfica usada para administración de servidores) además de otras nuevas características. El 16 de febrero de 2012 Microsoft anunció que la edición Developer Preview, una vez instalada cierta actualización, expiraría el 15 de enero de 2013 en lugar de la fecha prevista inicialmente del 8 de abril de 2012. La construcción 8180 se lanzó el 13 de enero de 2012 y contenía algunas revisiones a la interfaz del Administrador de Servidores y losEspacios de Almacenamiento.
La beta para consumidores se lanzó junto a la versión beta de Windows 8 para consumidores (Consumer Preview) el 29 de febrero de 2012. A diferencia de la Developer Preview, la Consumer Preview de Windows Server 2012 se lanzó para el público en general. La versión candidata para lanzamiento (Release Candidate o RC) de Windows Server 2012 se lanzó el 31 de mayo de 2012, junto con la versión RC de Windows 8 Release Preview. La última versión lista para fabricación (RTM) se lanzó el 1 de agosto de 2012 y estuvo a disposición general el 4 de septiembre de 2012. Algunos estudiantes que pasaran ciertos prerrequisitos también pudieron descargarse Windows Server 2012 usando DreamSpark.

Microsoft Office

Microsoft Office es una suite ofimáticaque abarca el mercado completo en Internet e interrelaciona aplicaciones de escritorio, servidores y servicios para los sistemas operativos Microsoft WindowsMac OS XiOS y Android. La última versión de la suite ofimática es elMicrosoft Office 2016.
Microsoft Office fue lanzado porMicrosoft en 1989 para Apple Macintosh, más tarde seguido por una versión para Windows, en 1990. La primera versión de Office conteníaMicrosoft WordMicrosoft Excel yMicrosoft PowerPoint. Además, una versión "Pro" (profesional) de Office incluía Microsoft Access y Schedule Plus. Con el tiempo, las aplicaciones de Office han crecido sustancialmente y de forma más estrecha con características compartidas, como un corrector ortográfico común, la integración de datos OLE y el lenguaje de secuencias de comandos de Microsoft, Visual Basic para aplicaciones. Microsoft también posiciona Office como una plataforma de desarrollo para software de línea de negocios, bajo la marca de Office Business Applications (aplicaciones empresariales de Office u OBA por sus siglas en inglés).
La suite usó desde 1997 hasta 2003 un grupo de formatos propietarios conocido como 97-2003 o 98-2004. En los años 2007 y 2008, con la introducción de Office 2007 y Office 2008, se creó un nuevo grupo de formatos denominados Office Open XML (docx, xlsx, pptx), los cuales se mantienen en las más recientes versiones de la suiteOffice 2016 yOffice 2016 para Mac y que son formatos abiertos y estándar.
A partir de la versión 2010, se ha mantenido un sistema de utilización mediante uso de pagos al programa, llamado Office 365. Esta versión se caracteriza por hacer uso de actualizaciones sin comprar de nuevo un software más reciente, además de ser instalable en más de un dispositivo, ya sea de diferente sistema operativo.

Reseña Historica
Office hizo su aparición en 1989 para la plataforma Apple Macintosh, y en 1990 en Windows, supervisado por Charles Simonyi y Richard Brodie.​ El término fue inicialmente utilizado en mercadeo para vender un conjunto de aplicaciones, que previamente se vendían por separado. El principal argumento de venta era que comprar el paquete completo resultaba más económico que comprar cada aplicación individualmente. La primera versión de Office contenía las aplicaciones Microsoft WordMicrosoft Excel y Microsoft PowerPoint. Adicionalmente, una llamada "versión profesional" de Office incluía tambiénMicrosoft Access y Schedule Plus.
Con el transcurso de los años, las aplicaciones de Microsoft Office han crecido sustancialmente desde un punto de vista técnico, incluso comparten funcionalidades, tales como: corrector ortográfico común, un integrador de datos OLE y el lenguaje descripts de Visual Basic para Aplicaciones. Microsoft también posiciona a Office como una plataforma de desarrollo para la línea de software para negocios.
Las versiones actuales son Office 2013para Windows, lanzada el 29 de enero de 2013 y Office 2011 para Mac Intosh. Office 2013, anunciado el 25 de octubre de 2012 fue liberado el 29 de enero de 2013 con la novedad de Office 365. Office 365 es un sistema de suscripción disponible en diferentes plazos para el uso de Office 2013.
Este paquete como tal es, probablemente, el más antiguo y de mayores prestaciones. Hay quienes creen que es uno de los mejores productos conjuntos (set) de microsoft, y desde hace más de 10 años es el más popular. El iWorkde Mac es un rival para ese paquete propietario.
Microsoft siguió con Office la estela del paquete Lisa Office System de Appleque ya en 1983 ofrecía procesador de texto y hoja de cálculo entre sus siete aplicaciones, bajo un sistema operativo con ventanas, escritorio y papelera, 12 años antes del Windows 95.
La última versión RTM, llamada Office 2016, se lanzó al mercado el 22 de septiembre de 2015.

Plan de Contingencia

Un plan de contingencias es un instrumento de gestión para el manejo de las Tecnologías de la Información y las Comunicaciones en el dominio del soporte y el desempeño (delivery and support, véase ITIL).
Dicho plan contiene las medidas técnicas, humanas y organizativasnecesarias para garantizar la continuidad del negocio y las operaciones de una compañía u organización. Un plan de contingencias es un caso particular de plan de continuidad del negocio aplicado al departamento de informática o tecnologías. Otros departamentos pueden tener planes de continuidad que persiguen el mismo objetivo desde otro punto de vista. No obstante, dada la importancia de las tecnologías en las organizaciones modernas, el plan de contingencias es el más relevante. El plan de respaldo sirve para poner a pleno rendimiento uno o varios equipos dañados.

Ciclo de PDCA
El plan de contingencias sigue el conocido ciclo de vida iterativo PDCA(plan-do-check-act, es decir, planificar-hacer-comprobar-actuar). Nace de unanálisis de riesgo donde, entre muchas amenazas, se identifican aquellas que afectan a la continuidad del negocio.
Sobre dicha base se seleccionan las contramedidas más adecuadas entre diferentes alternativas, siendo plasmadas en el plan de contingencias junto con los recursos necesarios para ponerlo en marcha.
El plan debe ser revisado periódicamente. Generalmente, la revisión será consecuencia de un nuevo análisis de riesgo. En cualquier caso, el plan de contingencias siempre es cuestionado cuando se materializa una amenaza, actuando de la siguiente manera:
Si la amenaza estaba prevista y las contramedidas fueron eficaces: se corrigen solamente aspectos menores del plan para mejorar la eficiencia.Si la amenaza estaba prevista pero las contramedidas fueron ineficaces: debe analizarse la causa del fallo y proponer nuevas contramedidas.Si la amenaza no estaba prevista: debe promoverse un nuevo análisis de riesgos. Es posible que las contramedidas adoptadas fueran eficaces para una amenaza no prevista. No obstante, esto no es excusa para evitar el análisis de lo ocurrido en un equipo.

Contenido
El plan de contingencias comprende tres subplanes. Cada plan determina las contramedidas necesarias en cada momento del tiempo respecto a la materialización de cualquier amenaza:
El plan de respaldo. Contempla las contramedidas preventivas antes de que se materialice una amenaza. Su finalidad es evitar dicha materialización.El plan de emergencia. Contempla las contramedidas necesarias durante la materialización de una amenaza, o inmediatamente después. Su finalidad es paliar los efectos adversos de la amenaza.El plan de recuperación. Contempla las medidas necesarias después de materializada y controlada la amenaza. Su finalidad es restaurar el estado de las cosas tal y como se encontraban antes de la materialización de la amenaza.
Por otra parte, el plan de contingencias no debe limitarse a estas medidas organizativas. También debe expresar claramente:
Qué recursos materiales son necesarios.Qué personas están implicadas en el cumplimiento del plan.Cuáles son las responsabilidades concretas de esas personas y su rol dentro del plan.Qué protocolos de actuación deben seguir y cómo son.

Ejemplo
Este ejemplo no es ni mucho menos exhaustivo. Supongamos una pequeña compañía que se dedica a la producción de prendas textiles. Un análisis de riesgos identificaría (entre otras cosas) lo siguiente:

Activos e interdependencias: Oficinas centrales → Centro de proceso de datos→ Computadoras y almacenamiento → Información de pedidos y facturación → Proceso de negocio de ventas → Imagen corporativa
Este análisis demuestra que una amenaza materializada en las oficinas centrales podría llegar a afectar al proceso de negocio dedicado a la venta. Aunque esto no impida a la compañía seguir comercializando productos, supondría una interrupción temporal de las ventas. Además afectaría negativamente a la imagen corporativa provocando la pérdida de clientes. Así, se evaluaría la siguiente amenaza y su impacto:

Amenaza: Incendio. (los activos afectados son los anteriores y los futuros).

Impacto: (es un ejemplo ficticio)
°Perdida de un 10% de clientes.
°Imposibilidad de facturar durante un mes.
°Imposibilidad de admitir pedidos durante un mes.
°Reconstrucción manual de pedidos y facturas a partir de otras fuentes.
°Sanciones por accidente laboral.
°Inversiones en equipamiento y mobiliario.
°Rehabilitación del local.


Todas estas consecuencias pueden valorarse en términos monetarios, que junto a la probabilidad de materialización ofrecen una estimación del riesgo.
El plan de contingencias contendría someramente las siguientes contramedidas:

Medidas técnicas:
°Extintores contra incendios.
°Detectores de humo.Salidas de emergencia.
°Equipos informáticos de respaldo.


Medidas organizativas:
°Seguro de incendios.
°Precontrato de alquiler de equipos informáticos y ubicación alternativa.
°Procedimiento de copia de respaldo.
°Procedimiento de actuación en caso de incendio.
°Contratación de un servicio de auditoría de riesgos laborales.


Medidas humanas:
°Formación para actuar en caso de incendio.
°Designación de un responsable de sala.
°Asignación de roles y responsabilidades para la copia de respaldo.

(Etc.)

Los subplanes contendrían las siguientes previsiones:

Plan de respaldo:
°Revisión de extintores.
°Simulacros de incendio.
°Realización de copias de respaldo.
°Custodia de las copias de respaldo (por ejemplo, en la caja fuerte de un banco).
°Revisión de las copias de respaldo.


Plan de emergencia:
°Activación del precontrato de alquiler de equipos informáticos.
°Restauración de las copias de respaldo.
°Reanudación de la actividad.


Plan de recuperación:
°Evaluación de daños.
°Traslado de datos desde la ubicación de emergencia a la habitual.
°Reanudación de la actividad.
°Desactivación del precontrato de alquiler.
°Reclamaciones a la compañía de seguros.

viernes, 13 de octubre de 2017

Historia de Microsoft

Microsoft es una compañía multinacional que se dedica a la tecnología informática. 

La Historia de Microsoft comienza el 4 de abril de1975, cuando fue fundada por Bill GatesPaul Allen en Albuquerque.​ Sus mejores productos actuales en venta son el sistema operativo Windows y la suite ofimática Microsoft Office.
En sus inicios, en el año 1980, Microsoft formó con IBM una importante unión que permitió ligar el sistema operativo de Microsoft con los ordenadores de IBM, pagando a Microsoft los derechos de cada venta. En 1985, IBM solicitó a Microsoft que hiciera un nuevo sistema operativo para sus ordenadores llamado OS/2. Microsoft hizo el sistema operativo, pero continuó vendiendo su propia versión en directa competición con el OS/2. La versión de Microsoft eclipsó al OS/2 en términos de ventas. Cuando Microsoft lanzó sus versiones de Windows en los años 90, ya había captado el 90 % de la cuota de mercado de los ordenadores personales del mundo.
A fecha de 2007, Microsoft tiene un crédito anual de 51,12 millones de dólares y por lo menos 79 000 empleados en 102 países. Desarrolla, fabríca, licencia y apoya una amplia gama de productos de software yhardware para los dispositivos informáticos.

Conexion RJ45

RJ-45, es una interfaz físicacomúnmente utilizada para conectarredes de computadoras con cableado estructurado (categorías 4, 5, 5e, 6 y 6a). Posee ocho pines o conexiones eléctricas, que normalmente se usan como extremos de cables de par trenzado (UTP).
Es parte del Código Federal de Regulaciones de Estados Unidos.
Es utilizada comúnmente con estándares como TIA/EIA-568-B, que define la disposición de los pines (patillaje) o wiring pinout.
Una aplicación común es su uso en cables de red Ethernet, donde suelen usarse cuatro pares (ocho pines). Otras aplicaciones incluyen terminaciones deteléfonos (dos pares), por ejemplo: en Francia y Alemania, y otros servicios dered como RDSIT1 e incluso RS-232.

TIPOS DE CABLE

Cable directo
El cable directo de red sirve para conectar dispositivos desiguales, como un computador con un hub o switch. En este caso, ambos extremos del cable deben tener la misma distribución. No existe diferencia alguna en la conectividad entre la distribución 568B y la distribución 568A siempre y cuando en ambos extremos se use la misma, en caso contrario hablamos de un cable cruzado.
El esquema más utilizado en la práctica es tener en ambos extremos la distribución 568B.

Cable cruzado
Un cable cruzado es un cable que interconecta todas las señales de salida en un conector con las señales de entrada en el otro conector, y viceversa; permitiendo a dos dispositivos electrónicos conectarse entre sí con una comunicación full dúplex. El término se refiere comúnmente al cable cruzado de Ethernet, pero otros cables pueden seguir el mismo principio. También permite transmisión confiable vía una conexión Ethernet.
Para crear un cable cruzado que funcione en 10/100baseT, un extremo del cable debe tener la distribución 568A y el otro 568B. Para crear un cable cruzado que funcione en 10/100/1000baseT, un extremo del cable debe tener la distribución Gigabit Ethernet (variante A), igual que la 568B, y el otro Gigabit Ethernet (variante B1). Esto se realiza para que el TX (transmisión) de un equipo esté conectado con el RX (recepción) del otro y a la inversa; así el que "habla" o trasmite (transmisión) es "escuchado" o recibido (recepción).

Cable cruzado automático
La “Configuración Automática MDI/MDI-X” (Auto-MDIX) está especificada como una característica opcional en el 1000Base-T estándar,[1]​ lo que significa que directamente a través de cables trabajarán dos interfaces Gigabit capaces.
Esta característica elimina la necesidad de cables cruzados, haciendo obsoletos los puertos uplink/normal y el selector manual de switches encontrado en muchos concentradores yconmutadores viejos, y reduciendo significativamente errores de instalación. Nota que aunque la configuración automática MDI/MDI-X está implementada de forma general, un cable cruzado podría hacer falta en situaciones ocasionales en las que ninguno de los dispositivos conectados tiene la característica implementada y/o habilitada. Previo al estándar 1000Base-T, usar un cable cruzado para conectar un dispositivo a una red accidentalmente, usualmente significaba tiempo perdido en la resolución de problemas resultado de la incoherencia de conexión.
Incluso por legado, los dispositivos 10/100, muchas tarjetas de red (NIC),switches y hubs automáticamente aplican un cable cruzado interno cuando es necesario. Además del eventualmente acordado Automático MDI/MDI-Z, esta característica puede también ser referida a varios términos específicos al vendedor que pueden incluir: Auto uplink and tradeUniversal Cable Recognition y Auto Sensing, entre otros o no.

Historia de la Computadora

La primera máquina de calcular mecánica, un precursor del ordenador digital, fue inventada en 1642 por el matemático francés Blaise Pascal. Aquel dispositivo utilizaba una serie de ruedas de diez dientes en las que cada uno de los dientes representaba un dígito del 0 al 9. Las ruedas estaban conectadas de tal manera que podían sumarse números haciéndolas avanzar el número de dientes correcto. En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz perfeccionó esta máquina e inventó una que también podía multiplicar.
El inventor francés Joseph Marie Jacquard, al diseñar un telar automático, utilizó delgadas placas de madera perforadas para controlar el tejido utilizado en los diseños complejos. Durante la década de 1880 el estadístico estadounidense Herman Hollerith concibió la idea de utilizar tarjetas perforadas, similares a las placas de Jacquard, para procesar datos. Hollerith consiguió compilar la información estadística destinada al censo de población de 1890 de Estados Unidos mediante la utilización de un sistema que hacía pasar tarjetas perforadas sobre contactos eléctricos.

La máquina analítica
También en el siglo XIX el matemático e inventor británico Charles Babbage elaboró los principios de la computadora digital moderna. Inventó una serie de máquinas, como la máquina diferencial, diseñadas para solucionar problemas matemáticos complejos. Muchos historiadores consideran a Babbage y a su socia, la matemática británica Augusta Ada Byron (1815-1852), hija del poeta inglés Lord Byron, como a los verdaderos inventores de la computadora digital moderna. La tecnología de aquella época no era capaz de trasladar a la práctica sus acertados conceptos; pero una de sus invenciones, la máquina analítica, ya tenía muchas de las características de un ordenador moderno. Incluía una corriente, o flujo de entrada en forma de paquete de tarjetas perforadas, una memoria para guardar los datos, un procesador para las operaciones matemáticas y una impresora para hacer permanente el registro.

Primeros ordenadores
Los ordenadores analógicos comenzaron a construirse a principios del siglo XX. Los primeros modelos realizaban los cálculos mediante ejes y engranajes giratorios. Con estas máquinas se evaluaban las aproximaciones numéricas de ecuaciones demasiado difíciles como para poder ser resueltas mediante otros métodos. Durante las dos guerras mundiales se utilizaron sistemas informáticos analógicos, primero mecánicos y más tarde eléctricos, para predecir la trayectoria de los torpedos en los submarinos y para el manejo a distancia de las bombas en la aviación.

Ordenadores electrónicos
Durante la II Guerra Mundial (1939-1945), un equipo de científicos y matemáticos que trabajaban en Bletchley Park, al norte de Londres, crearon lo que se consideró el primer ordenador digital totalmente electrónico: elColossus. Hacia diciembre de 1943 elColossus, que incorporaba 1.500 válvulas o tubos de vacío, era ya operativo. Fue utilizado por el equipo dirigido por Alan Turing para descodificar los mensajes de radio cifrados de los alemanes. En 1939 y con independencia de este proyecto, John Atanasoff y Clifford Berry ya habían construido un prototipo de máquina electrónica en el Iowa State College (EEUU). Este prototipo y las investigaciones posteriores se realizaron en el anonimato, y más tarde quedaron eclipsadas por el desarrollo del Calculador e integrador numérico digital electrónico (ENIAC) en 1945. El ENIAC, que según mostró la evidencia se basaba en gran medida en el ‘ordenador’ Atanasoff-Berry (ABC, acrónimo de Electronic Numerical Integrator and Computer), obtuvo una patente que caducó en 1973, varias décadas más tarde.

El ENIAC contenía 18.000 válvulas de vacío y tenía una velocidad de varios cientos de multiplicaciones por minuto, pero su programa estaba conectado al procesador y debía ser modificado manualmente. Se construyó un sucesor del ENIAC con un almacenamiento de programa que estaba basado en los conceptos del matemático húngaro-estadounidense John von Neumann. Las instrucciones se almacenaban dentro de una llamada memoria, lo que liberaba al ordenador de las limitaciones de velocidad del lector de cinta de papel durante la ejecución y permitía resolver problemas sin necesidad de volver a conectarse al ordenador.

A finales de la década de 1950 el uso del transistor en los ordenadores marcó el advenimiento de elementos lógicos más pequeños, rápidos y versátiles de lo que permitían las máquinas con válvulas. Como los transistores utilizan mucha menos energía y tienen una vida útil más prolongada, a su desarrollo se debió el nacimiento de máquinas más perfeccionadas, que fueron llamadas ordenadores o computadoras de segunda generación. Los componentes se hicieron más pequeños, así como los espacios entre ellos, por lo que la fabricación del sistema resultaba más barata.

Circuitos integrados
A finales de la década de 1960 apareció el circuito integrado (CI), que posibilitó la fabricación de varios transistores en un único sustrato de silicio en el que los cables de interconexión iban soldados. El circuito integrado permitió una posterior reducción del precio, el tamaño y los porcentajes de error. El microprocesador se convirtió en una realidad a mediados de la década de 1970, con la introducción del circuito de integración a gran escala (LSI, acrónimo de Large Scale Integrated) y, más tarde, con el circuito de integración a mayor escala (VLSI, acrónimo de Very Large Scale Integrated), con varios miles de transistores interconectados soldados sobre un único sustrato de silicio.

HISTORIA DE LA COMPUTADORA
 Del Abaco a la tarjeta perforada

EL ABACO; quizá fue el primer dispositivo mecánico de contabilidad que existió. Se ha calculado que tuvo su origen hace al menos 5000 años y su efectividad ha soportado la prueba del tiempo.

LA PASCALINA; El inventor y pintor Leonardo Da Vencí (1452-1519) trazó las ideas para una sumadora mecánica. Siglo y medio después, el filósofo y matemático francés Balicé Pascal (1623-1662) por fin inventó y construyó la primera sumadora mecánica. Se le llamo Pascalina y funcionaba como maquinaria a base de engranes y ruedas. A pesar de que Pascal fue enaltecido por toda Europa debido a sus logros, la Pascalina, resultó un desconsolador fallo financiero, pues para esos momentos, resultaba más costosa que la labor humana para los cálculos artiméticos.

LA LOCURA DE BABBAGE, Charles Babbage (1793-1871), visionario inglés y catedrático de Cambridge, hubiera podido acelerar el desarrollo de las computadoras si él y su mente inventiva hubieran nacido 100 años después. Adelantó la situación del hardware computacional al inventar la "máquina de diferencias", capaz de calcular tablas matemáticas. En 1834, cuando trabajaba en los avances de la máquina de diferencias Babbage concibió la idea de una "máquina analítica".
En esencia, ésta era una computadora de propósitos generales. Conforme con su diseño, la máquina analítica de Babbage podía suma r, substraer, multiplicar y dividir en secuencia automática a una velocidad de 60 sumas por minuto. El diseño requería miles de engranes y mecanismos que cubrirían el área de un campo de futbol y necesitaría accionarse por una locomotora. Los escépticos l e pusieron el sobrenombre de "la locura de Babbage". Charles Babbage trabajó en su máquina analítica hasta su muerte.
Los trazos detallados de Babbage describían las características incorporadas ahora en la moderna computadora electrónica. Si Babbage hubiera vivido en la era de la tecnología electrónica y las partes de precisión, hubiera adelantado el nacimiento de la computadora electrónica por varías décadas. Ironicamente, su obra se olvidó a tal grado, que algunos pioneros en el desarrollo de la computadora electrónica ignoraron por completo sus conceptos sobre memoria, impresoras, tarjetas perforadas y control de pro grama secuencia.

LA PRIMERA TARJETA PERFORADA; El telar de tejido, inventado en 1801 por el Francés Joseph-Marie Jackard (1753-1834), usado todavía en la actualidad, se controla por medio de tarjetas perforadas. El telar de Jackard opera de la manera siguiente: las tarje tarjetas se perforan estratégicamente y se acomodan en cierta secuencia para indicar un diseño de tejido en particular. Charles Babbage quiso aplicar el concepto de las tarjetas perforadas del telar de Jackard en su motor analítico. En 1843 Lady Ada Augusta Lovelace sugirió la idea de que las tarjetas perforadas pudieran adaptarse de manera que propiciaran que el motor de Babbage repitiera ciertas operaciones. Debido a esta sugerencia algunas personas consideran a Lady Lovelace la primera programadora.
Herman Hollerit (1860-1929) La oficina de censos estadounidense no terminó el censo de 1880 sino hasta 1888. La dirección de la oficina ya había llegado a la conclusión de que el censo de cada diez años tardaría mas que los mismo 10 años para terminarlo. La oficina de censos comisiono al estadística Herman Hollerit para que aplicara su experiencia en tarjetas perforadas y llevara a cabo el censo de 1890.
Con el procesamiento de las tarjetas perforadas y el tabulador de tarjetas perforadas de Hollerit, el censo se terminó en sólo 3 a años y la oficina se ahorró alrededor de $5,000,000 de dólares. Así empezó el procesamiento automatizado de datos. Hollerit no tomó la idea de las tarjetas perforadas del invento de Jackard, sino de la "fotografía de perforación" Algunas líneas ferroviarias de la época expedían boletos con descripciones físicas del pasajero; los conductores hacían orificios en los boletos que describían el color de cabello, de ojos y la forma de nariz del pasajero. Eso le dió a Hollerith la idea para hacer la fotografía perforada de cada persona que se iba a tabular.
Hollertih fundó la Tabulating Machine Company y vendió sus productos en todo el mundo. La demanda de sus máquinas se extendió incluso hasta Rusia. El primer censo llevado a cabo en Rusia en 1897, se registró con el Tabulador de Hollerith. En 1911, la Tabulating Machine Company, al unirse con otras Compañías, formó la Computing-Tabulating-Recording-Company.

LASMAQUINAS ELECTROMECANICAS DE CONTABILIDAD (MEC) Los resultados de las máquinas tabuladoras tenían que llevarse al corriente por medios manuales, hasta que en 1919 la Computing-Tabulating-Recording-Company. anunció la aparición de la impresora/listadora. Esta innovación revolucionó la manera en que las Compañías efectuaban sus operaciones.