lunes, 11 de julio de 2011

FUNDAMENTOS DE GOBIERNO ELECTRONICO

Para comenzar la definición de gobierno electrónico se refiere a los procesos y estructuras creadas para la oferta electrónica de los servicios gubernamentales, Además el gobierno electrónico, emplea el uso de la internet y las TIC para conseguir una mejor administración del gobierno mediante la transparencia y el acceso público a la información, reforzando la asociación fundamental entre el sector público y los ciudadanos. El e-gobierno también fomenta una participación más amplia de los ciudadanos en el proceso y gestión de los gobiernos.  
 El uso de las tecnologías de la información y comunicación permite que el gobierno torna más eficaz y eficiente, proporciona servicios de más calidad y fácil acceso, estimula la actividad económica, sirve como apoyo en la difusión de programas y rendición de cuentas, sirve como guía de autogestión al ciudadano, incrementa la comunicación tanto al interior como al exterior del gobierno, genera certidumbre y confianza en el gobierno, informa a la población y crea un ambiente que facilita la participación.  Entonces el Gobierno Electrónico se refiere al uso por parte de las agencias gubernamentales de las TIC, que tienen la capacidad de transformar las relaciones con el ciudadano, las empresas y otras agencias gubernamentales y engloba por lo menos los siguientes elementos: 
Está relacionado con la aplicación de las TIC
Implica innovación en las relaciones internas y externas del gobierno (Otras agencias gubernamentales, sus propios empleados, las empresas y/o el ciudadano
Afecta la organización y función de gobierno en lo relativo a: o Acceso a la información o Prestación de servicios o Realización de trámites y o Participación ciudadana
Busca optimizar el uso de los recursos para el logro de los objetivos gubernamentales 
Su implementación implica el paso por una serie de estados, no necesariamente consecutivos

GOBIERNO ELECTRONICO EN VENEZUELA

A partir de 1999 se inicia un proceso de cambios en el marco de la nueva constitución, se crea, en el año 2000, el Ministerio de Ciencia y Tecnología (MCT), para cumplir el mandato de la Constitución, que consagra el desarrollo científico y tecnológico como prioridad nacional. Su principal objetivo es la generación, uso, difusión y adaptación del conocimiento científico y tecnológico necesario para el desarrollo del país y el bienestar de la sociedad venezolana.
 A través del Plan Estratégico de Gobierno Electrónico (2001 - 2006), en Venezuela se adopta el gobierno electrónico como política de estado, destinado a profundizar la democracia, facilitando así el acceso a la información pública, a través de los distintos sitios web del sistema de administración pública nacional. Es importante destacar los notables avances en materia de políticas públicas sobre TIC a partir de la aparición del MCT y el CNTI. Entre los lineamientos en los que se basa en plan son:
 La visión general del plan es incluir a la sociedad venezolana en el uso de las tecnologías de información y de la comunicación (TIC), como medio de interactuar con el estado de manera integrada, coherente y coordinada. Su misión se basa en el desarrollo de estrategias, políticas, programas y marco regulatorio, de manera coordinada y articulada entre los órganos del poder público y el sector privado, principalmente con el sector productivo, de forma tal, que permita la inversión, el desarrollo y consolidación de las TIC en todos los ámbitos del estado y de la sociedad.

En pocas palabras el Gobierno Electrónico en Venezuela se plantea como meta la transformación del Estado Venezolano, de la Administración Pública, de las estructuras y de los procesos de gobierno a fin de favorecer el acercamiento e intercambio entre el gobierno y el ciudadano con el apoyo de las tecnologías de información y comunicación. Por otra parte Venezuela firmó, en el 2007, la Carta Iberoamericana de Gobierno Electrónico, como un compromiso continental para promover las iniciativas, estrategias y desarrollo del Gobierno Electrónico a fin de "reducir la brecha digital y convertir la Sociedad de la información y el Conocimiento en una oportunidad para todos".
 Según cifras de CONATEL, en nuestro país la penetración de Internet alcanza el 32% de la población, con un crecimiento sostenido que supera el 640% en suscripciones, desde el año 2000 al 2009, tenemos el escenario propicio para el desarrollo de una estrategia de Gobierno Electrónico que facilite el acceso de la ciudadanía a los servicios de la gestión pública. En la primera etapa Gobierno en Línea busca fortalecer los niveles Informativo y Interactivo de Gobierno Electrónico para activar, en una segunda etapa, los niveles Transaccional y Transformacional que garanticen el ejercicio de una democracia participativa y protagónica también desde la red.
 En este sentido, el gobierno venezolano ha llevado el uso de las tecnologías a muchas dependencias del estado facilitando así la mayoría de los tramites que en el pasado era casi imposible realizar, y ahora con la inclusión de diversos herramientas tecnológicas su facilidad y tiempos de respuesta al mínimo ha llevado al uso del Gobierno Electrónico a ser una herramienta obligada en los últimos tiempos. 

COMERCIO ELECTRONICO EN INTERNET

 El comercio electrónico a través de Internet es otra forma de ofrecer productos y servicios, que nace con vocación de no ser marginal. Antes de seguir profundizando en el concepto de comercio electrónico en Internet, conviene analizar brevemente los comportamientos de la Red y de los propios usuarios ante la oferta que proporciona la Web. Con el paso del tiempo, están surgiendo lo que podríamos llamar “puntos de  encuentro” en Internet a los que el usuario acude en busca de información específica. Estos puntos vienen definidos fundamentalmente por la cantidad, tipo y estructura de la información que gestionan.  Su existencia genera unos hábitos de consulta en el usuario, es decir, que una vez que éste sabe de la existencia d e u n a dirección de l a Web d o n d e puede encontrar la información que desea, se dirige di rectamente a el la para resolver su duda, antes de hacer una búsqueda en el conjunto de la Red, Esto se concreta en la aparición de grandes servidores especializados, algunos de ellos en música, otros en deporte, otros en la venta de productos y servicios por Internet, etcétera. Estamos hablando de de los centros comerciales virtuales, que agrupan en un mismo entorno a tiendas que, de otro modo, perderían su poder emisor al carecer del trampolín adecuado.  Los centros comerciales se caracterizan por actuar de escaparate común y lanzadera de numerosas tiendas individuales. Estos centros, provistos de una identidad propia, transmiten al potencial cliente la seguridad y confianza que posibilita la compra. Cada centro comercial estructura su información de una manera, en base a sus necesidades, pero son varias las características comunes a todos ellos que recogemos a continuación:
• La oferta de productos: Los productos de la empresa se organizan en catálogos en función de la estructura de la misma, siguiendo un orden que facilita al navegante acceder al producto deseado sin dificultad, guiado por índices o mediante búsqueda directa por el nombre o características.
•< span> Descripción del producto: Suele aportarse una primera información de los productos que incluye su nombre, imagen, presentación, características y precio unitario. Es relativamente frecuente que esta información  pueda ampliarse en páginas posteriores mediante enlaces activos.
•< span> Cesta de la compra: Como si de un gran supermercado se tratara, el centro  comercial ofrece la posibilidad de seleccionar productos o servicios a medida que se navega por la Web, acumulándolos y guardándolos hasta que se efectúa la orden de compra. Sobre esta selección el cliente puede hacer modificaciones en la cantidad, eliminar un producto o empezar de nuevo desde el principio.
•< span> S o l i c i t u d  o C o m p r a: U n a v e z seleccionados los productos o servicios que le interesan, el cliente, mediante un formulario que se rellena “on-line”, puede  indicar la forma de pago y envío que desea, aportando sus datos personales –dirección,  e-mail, etcétera –. Este formulario utiliza para su transmisión por la Red un sistema de encriptación que asegura la confidencialidad del mensaje.
•  Pago. Si el cliente decide pagar con tarjeta de crédito o débito, aparecerá un nuevo  formulario en el que la entidad financiera que realiza la intermediación solicita los datos de su tarjeta para realizar las oportunas operaciones de aceptación del pago. La comunicación se realiza encriptada y la información sobre la tarjeta no es conocida ni tan siquiera por el centro comercial o tienda a la que se han comprado los productos. Caso de ser aceptado el pago, se comunica a la tienda y al cliente dicha aceptación.

Ventajas y desventajas del comercio electrónico para el usuario

Ventajas:
Encontrar un producto a menor costo.
Realizar mejor negociación con el vendedor.
Comodidad en la adquisición del bien o producto.


Desventajas:
Cercanía entre el vendedor y el comprador para proceder con una queja del producto.
Cobro o poder hacer valida la garantía del producto comercializado.
Se pierde la capacidad de visualización del producto en comercialización o conocimiento físico del producto.


Ventajas  y desventajas del comercio electrónico para las empresas
Ventajas:
Elimina obligaciones con trabajadores por los contratos.
Costos de los distribuidores.
Elimina las perdidas por mercancía robada.
Elimina días muertos por causas de huelga.
Genera mayores ganancias por venta unitaria de un producto.
Desventajas:

Menor comunicación entre vendedor y consumidor.
Hackers
Crackers

viernes, 8 de julio de 2011

Mapa Mental Sobre Estándares, y Usos del Internet

El Futuro del Internet

Los Estandares Utilizados en Internet

Antes de hablar de los servicios Web hay que tomar en cuenta el desarrollo que tuvo la internet desde sus inicios y los cambios que sufrio este a lo largo del tiempo y obligatoriamente hay que hablar sobre los entornos Web, los cuales, nacieron alrededor de los años 90, a partir de un proyecto en el que Tim Berners-Lee construyó un prototipo de sistema de hipertexto que trabaja sobre Internet, mediante una aplicación denominada navegador Web. Su intención fue presentar cómo pueden extraerse elementos de información de los servidores y mostrarlos en la pantalla de un usuario; finalmente, cómo este usuario podía seguir los hiperenlaces ubicados en la página Web e ir de documentos en documento hasta encontrar la información deseada. Los entornos Web conjugan hipertexto, imágenes, sonidos y estructuras simbólicas con un significado determinado (documento), entrelazados en una interminable red de sitios con recursos de información para conformar así un servicio de información integral que facilita que un usuario encuentre la información deseada con el menor esfuerzo y tiempo.
Existen múltiples definiciones sobre lo que son los Servicios Web, lo que muestra su complejidad a la hora de dar una adecuada definición que englobe todo lo que son e implican. Una posible sería hablar de ellos como un conjunto de aplicaciones o de tecnologías con capacidad para interoperar en la Web. Estas aplicaciones o tecnologías intercambian datos entre sí con el objetivo de ofrecer unos servicios. Los proveedores ofrecen sus servicios como procedimientos remotos y los usuarios solicitan un servicio llamando a estos procedimientos a través de la Web.
En todo este proceso intervienen una serie de tecnologías que hacen posible esta circulación de información. Por un lado, estaría SOAP (Protocolo Simple de Acceso a Objetos). Se trata de un protocolo basado en XML, que permite la interacción entre varios dispositivos y que tiene la capacidad de transmitir información compleja. Los datos pueden ser transmitidos a través de HTTP , SMTP , etc. SOAP especifica el formato de los mensajes. El mensaje SOAP está compuesto por un envelope (sobre), cuya estructura está formada por los siguientes elementos: header (cabecera) y body (cuerpo).
Para optimizar el rendimiento de las aplicaciones basadas en Servicios Web, se han desarrollado tecnologías complementarias a SOAP, que agilizan el envío de los mensajes (MTOM) y los recursos que se transmiten en esos mensajes (SOAP-RRSHB). Por otro lado, WSDL (Lenguaje de Descripción de Servicios Web), permite que un servicio y un cliente establezcan un acuerdo en lo que se refiere a los detalles de transporte de mensajes y su contenido, a través de un documento procesable por dispositivos. WSDL representa una especie de contrato entre el proveedor y el que solicita. WSDL especifica la sintaxis y los mecanismos de intercambio de mensajes.
Durante la evolución de las necesidades de las aplicaciones basadas en Servicios Web de las grandes organizaciones, se han desarrollado mecanismos que permiten enriquecer las descripciones de las operaciones que realizan sus servicios mediante anotaciones semánticas y con directivas que definen el comportamiento. Esto permitiría encontrar los Servicios Web que mejor se adapten a los objetivos deseados. Además, ante la complejidad de los procesos de las grandes aplicaciones empresariales, existe una tecnología que permite una definición de estos procesos mediante la composición de varios Servicios Web individuales, lo que se conoce como coreografía.
Existen muchos protocolos utilizados por los servicios web en la actualidad algunos de los mas utilizados son:
Web Services Protocol Stack: Así se denomina al conjunto de servicios y protocolos de los servicios Web.
 XML (Extensible Markup Language): Es el formato estándar para los datos que se vayan a intercambiar.
 SOAP (Simple Object Access Protocol) o XML-RPC (XML Remote Procedure Call): Protocolos sobre los que se establece el intercambio.
 Otros protocolos: los datos en XML también pueden enviarse de una aplicación a otra mediante protocolos normales como HTTP (Hypertext Transfer  Protocol), FTP (File Transfer Protocol), o SMTP (Simple Mail Transfer Protocol).
 WSDL (Web Services Description Language): Es el lenguaje de la interfaz pública para los servicios Web. Es una descripción basada en XML de los requisitos funcionales necesarios para establecer una comunicación con los servicios Web.
 UDDI (Universal Description, Discovery and Integration): Protocolo para publicar la información de los servicios Web. Permite comprobar qué servicios webestán disponibles.
 WS-Security (Web Service Security): Protocolo de seguridad aceptado como estándar por OASIS (Organization for the Advancement of Structured Information Standards). Garantiza la autenticación de los actores y la confidencialidad de los mensajes enviados

La Historia de Internet en 9 Minutos

Fundamentos de Internet: A Fondo.

Así, a finales de 1969, cuatro ordenadores host fueron conectados cojuntamente a la ARPANET inicial y se hizo realidad una embrionaria Internet. Incluso en esta primitiva etapa, hay que reseñar que la investigación incorporó tanto el trabajo mediante la red ya existente como la mejora de la utilización de dicha red. Esta tradición continúa hasta el día de hoy. Se siguieron conectando ordenadores rápidamente a la ARPANET durante los años siguientes y el trabajo continuó para completar un protocolo host a host funcionalmente completo, así como software adicional de red.
En Diciembre de 1970, el Network Working Group (NWG) liderado por S.Crocker acabó el protocolo hosta hostinicial para ARPANET, llamado Network Control Protocol (NCP). Cuando en los nodos de ARPANET se completó la implementación del NCP durante el periodo 1971-72, los usuarios de la red pudieron finalmente comenzar a desarrollar aplicaciones.
En 1971 había quince nodos, y para 1972, treinta y siete.
Poco a poco comenzó a expandirse el uso de ARPANET: no solamente se dedicaba a trabajos de cómputo a larga distancia, sino que se extendió a la comunicación de proyectos y trabajos entre investigadores, y al uso personalizado del correo electrónico y más humano de la comunicación persona a persona. Así también surgen las listas de interés, que son mensajes de correo electrónico retransmitidos automáticamente a los suscriptores en la red.
En Octubre de 1972,Kahn organizó una gran y muy exitosa demostración de ARPANET en la International Computer Communication Conference. Esta fue la primera demostración pública de la nueva tecnología de red. Fue también en 1972 cuando se introdujo la primera aplicación "estrella": el correo electrónico.
En Marzo de 1972, Ray Tomlinson, de BBN (Bolt, Beranek and Newman), escribió el software SENDMSG, de envío-recepción de mensajes de correo electrónico, impulsado por la necesidad que tenían los desarrolladores de ARPANET de un mecanismo sencillo de coordinación.
En Julio, Roberts expandió su valor añadido escribiendo el primer programa de utilidad de correo electrónico para relacionar, leer selectivamente, almacenar, reenviar y responder a mensajes. Desde entonces, la aplicación de correo electrónico se convirtió en la mayor de la red durante más de una década. Fue precursora del tipo de actividad que observamos hoy día en la World Wide Web, es decir, del enorme crecimiento de todas las formas de tráfico persona a persona.
A fines de 1972 el ARPANET fue renombrado como DARPANET(The Defense Advanced Research Projects Agency)
1973se empezó el desarrollo del protocolo que más tarde se llamaría TCP/IPdesarrollado por Vinton Cerfde la Universidad de Stanford.
1976 el Dr. Robert M. Metcalfedesarrolla Ethernet, cuyo sistema permite el uso de cables coaxiales que permiten transportan la información en forma más rápida.
1976es cuando recién DARPANET empieza a usar el protocolo TCP/IP
Ese mismo año se crea en los Laboratorios de la Bell de AT&T el UUCP (Unix to Unix Copy) distribuido con UNIXun año más trade.
1977. Comenzó a extenderse el uso de TCP/IP en otras redes para vincularse a ARPANET, comenzando esta red a volverse más pequeña en comparación con la gran cantidad de máquinas que comenzaron a conectarse. A fines de los años 70 y en los años 80, personas de diferentes grupos sociales tuvieron acceso a computadoras de gran capacidad, siendo bastante fácil el conectarse a la creciente red de redes. Como el software de TCP/IP
es de dominio público, y por su misma naturaleza, descentralizante y hasta anárquico, comenzó el auge de la conexión a Internet (derivado de International Networking). Fue en esta época donde surgió USENET, el boletín electrónico más grande del mundo, basándose en UUCP, tecnología desarrollada en los laboratorios Bell de AT&T, junto con el sistema operativo UNIX, que al paso de los años, se ha convertido en el sistema operativo estándar de
todos las computadoras de mediano y gran tamaño conectadas a Internet. También surgieron servicios enfocados a la diversión como el primer MUD (Multi User Dungeon, juego de rol interactivo) en la Universidad de Essex.
1979 se crea USENET, una red para intercambio de noticias grupales, y que fuera creado por Steven Belloviny los programadores Tom Truscott y Jim Ellis, bajo la tecnología de UUCP.
1979 IBM crea BITNET(Because it is Time Network) que sirve para mensajes de correo y listas de interés.
1981La National Science Foundation crea una red de comunicaciones llamada CSNET que transmite a 56 kbps, sin necesidad de acceder a ARPANET y es en este año que se empieza a independizar el control ceintífico civil del control militar.

1983se crea el Internet Activities Board. Para Enero de ese año todos los equipos conectados a ARPANET tenían que usar el protocolo TCP/IP que reemplazó al NCP, por completo.
La Universidad de Winsconsin creó el Domain Name System (DNS) que permitía dirigir los paquetes de datos a un nombre de dominio, cuyo servidor se encargaría de traducir la correspondiente dirección IP de cada equipo.
1984 la ARPANETse dividió en 2 redes centrales: MILNET Y ARPANET. La primera era de uso estrictamente militar y la segunda servía para mantener la investigación científia. Sin embargo el Departamento de Defensa de los EUA seguía controlando ambas.
1985-86: La National Science Foundation (NSF) conectó seis centros de supercomputación a través del país. Esta red es llamada la NSFNET, o sea el troncal (backbone) de la NSF.
Para expandir el acceso a Internet, la NSF auspició el desarrollo de redes regionales, las cuales fueron conectadas al troncal de la NSFNET. Sumandolo a esto la NSF apoyo a instituciones, tales como universidades y centros de investigación, en sus esfuerzos para conectarse a las redes regionales.
1987- La NSF otorgo una concesión a Merit Network,Inc., para operar y administrar futuros desarrollos del troncal de la NSFNET. Merit Network, Inc. en una asociación con IBM, Corp. y con MCI Telecomunications, emprendieron investigaciones para el rapido desarrollo de nuevas tecnologías para redes.
1989- La troncal de la red es elevada a "T1", con ello la red queda habilitada para trasmitir datos de hasta 1.5 millones de bits por segundo, o lo que es lo mismo hasta 50 páginas de texto por segundo.
1990 - La ARPANET es disuelta.
1991- El Gopheres creado por la Universidad de Minnesota. El Gopher provee al usuario de un método basado en un menú jerarquico, que es capaz de localizar información en la Internet. Esta herramienta facilita enormemente el uso de la Internet.
1992Se funda la Internet Society.
1993- El European Laboratory for Particle Physics in Switzerland (CERN) libera el World Wide Web (WWW), desarrollado por Tim Berners-Lee.El WWW usa el protocolo de transferencia de hipertexto (HTTP)y encadena hipertextos facilmente, cambiando asi la ruta o camino de la información, la cual entonces puede ser organizada, presentada y accesada en la Internet.
1993- La troncal de la red NSFNET es elevada a "T3" lo que lo habilita para trasmitir datos a una velocidad de 45 millones de bits por segundo, o sea cerca de 1400 paginas de texto por segundo.
1993-1994 - El visualizador (browsers) grafico de web Mosaic y Netscape Navigatoraparecen y rápidamente son dispersados por la comunidad de la Internet. Debido a su naturaleza intuitiva y a la interface gráfica, estos browsers hacen que los WWW y la Internet sean más atractivos al público en general.
1995- La troncal de la red NSFNET es reemplazado por una nueva arquitectura de redes, llamada vBNS (very high speed backbone network system), esto significa sistema de redes con troncal de alta velocidad, que utiliza los Network Service Providers, (Proveedores de Servicios de Redes), redes regionales y Network Access Points (NAPs).

LA EVOLUCIÓNDE INTERNET DESDE EL PUNTO DE VISTA TÉCNICO
La ARPANET original evolucionó hacia Internet. Internet se basó en la idea de que habría múltiples redes independientes, de diseño casi arbitrario, empezando por ARPANET como la red pionera de conmutación de paquetes, pero que pronto incluiría redes de paquetes por satélite, redes de paquetes por radio y otros tipos de red Internet como ahora la conocemos encierra una idea técnica clave, la de arquitectura abierta de trabajo en red.
Bajo este enfoque, la elección de cualquier tecnología de red individual no respondería a una arquitectura específica de red sino que podría ser seleccionada libremente por un proveedor e interactuar con las otras redes a través del metanivel de la arquitectura de Internetworking (trabajo entre redes).
Hasta ese momento, había un sólo método para "federar" redes. Era el tradicional método de conmutación de circuitos, por el cual las redes se interconectaban a nivel de circuito pasándose bits individuales síncro-namente a lo largo de una porción de circuito que unía un par de sedes finales.
Cabe recordar que Kleinrock había mostrado en 1961 que la conmutación de paquetes era el método de conmutación más eficiente. Juntamente con la conmutación de paquetes, las interconexiones de propósito especial entre redes constituían otra posibilidad. Y aunque había otros métodos limitados de interconexión de redes distintas, éstos requerían que una de ellas fuera usada como componente de la otra en lugar de actuar simplemente como un extremo de la comunicación para ofrecer servicio end-to-end (extremo a extremo).
En una red de arquitectura abierta, las redes individuales pueden ser diseñadas y desarrolladas separadamente y cada una puede tener su propia y única interfaz, que puede ofrecer a los usuarios y/u otros proveedores, incluyendo otros proveedores de Internet. Cada red puede ser diseñada de acuerdo con su entorno específico y los requerimientos de los usuarios de aquella red. No existen generalmente restricciones en los tipos de red que pueden ser incorporadas ni tampoco en su ámbito geográfico, aunque ciertas consideraciones pragmáticas determinan qué posibilidades tienen sentido.
La idea de arquitectura de red abierta fue introducida primeramente por Kahn un poco antes de su llegada a la DARPA en 1972. Este trabajo fue originalmente parte de su programa de paquetería por radio, pero más tarde se convirtió por derecho propio en un programa separado. Entonces, el programa fue llamado Internetting.
La clave para realizar el trabajo del sistema de paquetería por radio fue un protocolo extremo a extremo seguro que pudiera mantener la comunicación efectiva frente a los cortes e interferencias de radio y que pudiera manejar las pérdidas intermitentes como las causadas por el paso a través de un túnel o el bloqueo a nivel local. Kahn pensó primero en desarrollar un protocolo local sólo para la red de paquetería por radio porque ello le hubiera evitado tratar con la multitud de sistemas operativos distintos y continuar usando NCP.
Sin embargo, NCP no tenía capacidad para direccionar redes y máquinas más allá de un destino IMP en ARPANET y de esta manera se requerían ciertos cambios en el NCP. La premisa era que ARPANET no podía ser cambiado en este aspecto.
El NCP se basaba en ARPANET para proporcionar seguridad extremo a extremo. Si alguno de los paquetes se perdía, el protocolo y presumiblemente cualquier aplicación soportada sufriría una grave interrupción. En este modelo, el NCP no tenía control de errores en el host porque ARPANET había de ser la única red existente y era tan fiable que no requería ningún control de errores en la parte de los hosts.
Así, Kahn decidió desarrollar una nueva versión del protocolo que pudiera satisfacer las necesidades de un entorno de red de arquitectura abierta. El protocolo podría eventualmente ser denominado "transmision-control protocol/Internet protocol" (TCP/IP, protocolo de control de transmisión /protocolo de Internet). Así como el NCP tendía a actuar como un driver (manejador) de dispositivo, el nuevo protocolo sería más bien un protocolo de comunicaciones.

Reglas clave
Cuatro fueron las reglas fundamentales en las primeras ideas de Kahn:
Cada red distinta debería mantenerse por sí misma y no deberían requerirse cambios internos a ninguna de ellas para conectarse a Internet.
Las comunicaciones deberían ser establecidas en base a la filosofía del "best-effort" (lo mejor posible). Si un paquete no llegara a su destino debería ser en breve retransmitido desde el emisor.
Para interconectar redes se usarían cajas negras, las cuales más tarde serían denominadas gateways (pasarelas) y routers (enrutadores). Los gateways no deberían almacenar información alguna sobre los flujos individuales de paquetes que circulasen a través de ellos, manteniendo de esta manera su simplicidad y evitando la complicada adaptación y recuperación a partir de las diversas modalidades de fallo.
No habría ningún control global a nivel de operaciones.
Otras cuestiones clave que debían ser resueltas eran: Algoritmos para evitar la pérdida de paquetes en base a la invalidación de las comunicaciones y la reiniciación de las mismas para la retransmisión exitosa desde el emisor. Provisión de pipelining ("tuberías") host a host de tal forma que se pudieran enrutar múltiples paquetes desde el origen al destino a discreción de los hosts participantes, siempre que las redes intermedias lo permitieran Funciones de pasarela para permitir de dirigir los paquetes adecuadamente. Esto incluía la interpretación de las cabeceras IP para enrutado, manejo de interfaces y división de paquetes en trozos más pequeños si fuera necesario. La necesidad de controles (checksums) extremo a extremo, reensamblaje de paquetes a partir de fragmentos, y detección de duplicados si los hubiere. Necesidad de direccionamiento globalTécnicas para el control del flujo host a host. Interacción con varios sistemas operativos. Implementación eficiente y rendimiento de la red, aunque en principio éstas eran consideraciones secundarias.
Kahn empezó a trabajar en un conjunto de principios para sistemas opera-tivos orientados a comunicaciones mientras se encontraba en BBN y escribió algunas de sus primeras ideas en un memorándum interno de BBN titulado "Communications Principles for Operating Systems".
En ese momento, se dió cuenta de que le sería necesario aprender los detalles de imple-mentación de cada sistema operativo para tener la posibilidad de incluir nuevos protocolos de manera eficiente. Así, en la primavera de 1973, después de haber empezado el trabajo de "Internetting", le pidió a Vinton Cerf (entonces en la Universidad de Stanford) que trabajara con él en el diseño detallado del protocolo.
Cerf había estado íntimamente implicado en el diseño y desarrollo original del NCP y ya tenía conocimientos sobre la construcción de interfaces con los sistemas operativos existentes. De esta forma, valiéndose del enfoque arqui-tectural de Kahn en cuanto a comunicaciones y de la experiencia en NCP de Cerf, se asociaron para abordar los detalles de lo que acabaría siendo TCP/IP.
El trabajo en común fue altamente productivo y la primera versión escrita (7) bajo este enfoque fue distribuida en una sesión especial del INWG (International Network Working Group, Grupo de trabajo sobre redes internacionales) que había sido convocada con motivo de una conferencia de la Universidad de Sussex en Septiembre de 1973. Cerf había sido invitado a presidir el grupo y aprovechó la ocasión para celebrar una reunión de los miembros del INWG, ampliamente representados en esta conferencia de Sussex.
Estas son las directrices básicas que surgieron de la colaboración entre Kahn y Cerf: Las comunicaciones entre dos procesos consistirían lógicamente en un larga corriente de bytes; ellos los llamaban "octetos". La posición de un octeto dentro de esta corriente de datos sería usada para identificarlo. El control del flujo se realizaría usando ventanas deslizantes y acks (N. del T.: abreviatura de acknowled-gment, acuse de recibo). El destinatario podría decidir cuando enviar acuse de recibo y cada ack devuelto correspondería a todos los paquetes recibidos hasta el momento. Se dejó abierto el modo exacto en que emisor y destinatario acordarían los parámetros sobre los tamaños de las ventanas a usar. Se usaron inicialmente valores por defecto. Aunque en aquellos momentos Ethernet estaba en desarrollo en el PARC de Xerox, la proliferación de LANs no había sido prevista entonces y mucho menos la de PCs y estaciones de trabajo. El modelo original fue concebido como un conjunto, que se esperaba reducido, de redes de ámbito nacional tipo ARPANET.
De este modo, se usó una dirección IP de 32 bits, de la cual los primeros 8 identificaban la red y los restantes 24 designaban el host dentro de dicha red. La decisión de que 256 redes sería suficiente para el futuro previsible debió empezar a reconsiderarse en cuanto las LANs empezaron a aparecer a finales de los setenta. El documento original de Cerf y Kahn sobre Internet describía un protocolo, llamado TCP, que se encargaba de proveer todos los servicios de transporte y reenvío en Internet. Kahn pretendía que TCP diera soporte a un amplio rango de servicios de transporte, desde el envío secuencial de datos, totalmente fiable (modelo de circuito virtual) hasta un servicio de datagramas en el que la aplicación hiciera un uso directo del servicio de red subyacente, lo que podría implicar pérdida ocasional, corrupción o reordenación de paquetes.
Sin embargo, el esfuerzo inicial de implementación de TCP dio lugar a una versión que sólo permitía circuitos virtuales. Este modelo funcionaba perfectamente en la transferencia de ficheros y en las aplicaciones de login remoto, pero algunos de los primeros trabajos sobre aplicaciones avanzadas de redes (en particular el empa-quetamiento de voz en los años 70) dejó bien claro que, en ciertos casos, el TCP no debía encargarse de corregir las pérdidas de paquetes y que había que dejar a la aplicación que se ocupara de ello. Esto llevó a la reorganización del TCP original en dos protocolos: uno sencillo, IP, que se encargara tan sólo de dar una dirección a los paquetes y de reenviarlos; y un TCP que se dedicara a una serie de funcionalidades como el control del flujo y la recuperación de los paquetes perdidos. Para aquellas aplicaciones que no precisan los servicios de TCP, se añadió un protocolo alternativo llamado UDP (User Datagram Protocol, protocolo de datagramas de usuario) dedicado a dar un acceso directo a los servicios básicos del IP.
Una de las motivaciones iniciales de ARPANET e Internet fue compartir recursos, por ejemplo, permitiendo que usuarios de redes de paquetes sobre radio pudieran acceder a sistemas de tiempo compartido conectados a ARPANET. Conectar las dos redes era mucho más económico que duplicar estos carísimos ordenadores.
Sin embargo, mientras la transferencia de ficheros y el login remoto (Telnet) eran aplicaciones muy importantes, de todas las de esta época probablemente sea el correo electrónico la que haya tenido un impacto más significativo. El correo electrónico dio lugar a un nuevo modelo de comunicación entre las personas y cambió la naturaleza de la colaboración.
Su influencia se manifestó en primer lugar en la construcción de la propia Internet (como veremos más adelante), y posteriormente, en buena parte de la sociedad. Se propusieron otras aplicaciones en los primeros tiempos de Internet, desde la comunicación vocal basada en paquetes (precursora de la telefonía sobre Internet) o varios modelos para compartir ficheros y discos, hasta los primeros "programas-gusano" que mostraban el concepto de agente (y, por supuesto, de virus).
Un concepto clave en Internet es que no fue diseñada para una única aplicación sino como una infraestructura general dentro de la que podrían concebirse nuevos servicios, como con posterioridad demostró la aparición de la World Wide Web. Este fue posible solamente debido a la orientación de propósito general que tenía el servicio implementado mediante TCP e IP.

martes, 29 de marzo de 2011

Internet: Historia y Orígenes Remotos

En esta Oportunidad, se quiere conocer los fundamentos en los cuales se origino todo el movimiento que llevo al gran descubrimiento que fue la internet, sus usos y aplicaciones.
La red Internet surgió de la necesidad del gobierno de los Estados Unidos de resolver un problema de estrategia militar, en el período de la Guerra Fría. ¿Cómo se podrían comunicar las autoridades después de una guerra nuclear?
RAND Corporation, una de las empresas encargadas de la estrategia militar estadounidense propuso una solución: la creación de una red de comunicaciones que no dependiera de un organismo central, integrado por nodos o puntos de enlace de igual rango y con la misma capacidad de originar, transmitir y recibir mensajes, y que, en caso de que alguno de estos nodos recibiera un ataque o dejara de funcionar, el resto de la red seguiría en operación. Los mensajes en esta red se dividirían en paquetes, cada uno con su propia dirección, originado en algún nodo en particular saltando de lado a lado y finalizando en otro nodo específico, de manera individual. La ruta de los paquetes no importa, solamente importa que lleguen. Si una ruta hubiera sido destruida, el paquete encontraría otra para llegar a su destino.
ARPA (Advanced Research Projects Agency), una agencia del Pentágono surgida a partir del lanzamiento del satélite Sputnik, decide realizar un proyecto mayor sobre esta tecnología en redes en Estados Unidos. Este proyecto fue desarrollado por RAND, MIT (Massachussets Institute of Technology) y UCLA (University of California Los Angeles). El primer nodo fue instalado en UCLA. Para diciembre de ese año ya existían cuatro nodos en ARPANET, pudiendo transmitir datos en líneas de transmisión de alta velocidad y programar remotamente computadoras en otros nodos. En 1971 había quince nodos, y para 1972, treinta y siete.
Poco a poco comenzó a expandirse el uso de ARPANET: no solamente se dedicaba a trabajos de cómputo a larga distancia, sino que se extendió a la comunicación de proyectos y trabajos entre investigadores, y al uso personalizado del correo electrónico y más humano de la comunicación persona a persona. Así también surgen las listas de interés, que son mensajes de correo electrónico retransmitidos automáticamente a los suscriptores en la red.
El protocolo original se conociá como NCP "Network Control Protocol", el cual fue cambiado por un nuevo estándar más sofisticado, llamado TCP/IP, publicado en este año por Vint Cerf y Bob Kahn. TCP (Transmission Control Protocol) convierte mensajes en cadenas de paquetes en el nodo de origen, y los ensambla de nuevo en el punto de destino. IP (Internet Protocol) maneja el direccionamiento permitiendo que los paquetes fueran ruteados a través de diferentes nodos y hasta de diferentes redes con varios estándares, como Ethernet, FDDI y X.25.
Este y otros temas relevantes sobre el origen de internet, y otros aspectos pueden conocerlos un poco mas en el siguiente enlace, la pagina oficial de la Internet Society (ISOC). espero les sea de gran ayuda.

lunes, 21 de marzo de 2011

Bienvenida

Bienvenidos a mi Blog, el cual tiene como finalidad publicar notas, articulos y publicaciones relacionadas con el nacimiento de la internet, su evolucion, y usos hasta nuestros dias y tendencias a futuro en cuanto a la utilizacion de uno de los logros mas importantes de la humanidad.

Ademas tiene como proposito reflexionar sobre los temas tratados en la materia Internet en las Organizaciones, del Programa de la Maestria Sistemas de Informacion de la Universidad Catolica Andres Bello.

Espero sea de total utilidad en este y otros momentos del programa y de su desarrollo profesional, Saludos.