kirwi

Publicaciones de Paya Frank en Amazon

freelancer

PF

La Nostalgia del Pasado

LG

Buscador

1

19 de octubre de 2021

HISTORIA DEL INTERNET

 









La historia de Internet se remonta al temprano desarrollo de las redes de comunicación. La idea de una red de computadoras diseñada para permitir la comunicación general entre usuarios de varias computadoras se ha desarrollado en un gran número de pasos. La unión de todos estos desarrollos culminó con la red de redes[1] que conocemos como Internet. Esto incluía tanto desarrollos tecnológicos como la fusión de la infraestructura de la red ya existente y los sistemas de telecomunicaciones.

Las más antiguas versiones de estas ideas aparecieron a finales de los años 50. Implementaciones prácticas de estos conceptos empezaron a finales de los 60 y a lo largo de los 70. En la década de 1980, tecnologías que reconoceríamos como las bases de la moderna Internet, empezaron a expandirse por todo el mundo. En los 90 se introdujo la World Wide Web, que se hizo común.

La infraestructura de Internet se esparció por el mundo, para crear la moderna red mundial de computadoras que hoy conocemos. Atravesó los países occidentales e intentó una penetración en los países en desarrollo, creando un acceso mundial a información y comunicación sin precedentes, pero también una brecha digital en el acceso a esta nueva infraestructura. Internet también alteró la economía del mundo entero, incluyendo las implicaciones económicas de la burbuja de las .com.


Un método de conectar computadoras, prevalente sobre los demás, se basaba en el método de la computadora central o unidad principal, que simplemente consistía en permitir a sus terminales conectarse a través de largas líneas alquiladas. Este método se usaba en los años 50 por el Proyecto RAND para apoyar a investigadores como Herbert Simon, en Pittsburgh (Pensilvania), cuando colaboraba a través de todo el continente con otros investigadores de Santa Monica (California) trabajando en demostraciones de teoremas automatizadas e inteligencia artificial.

Un pionero fundamental en lo que se refiere a una red mundial, J.C.R. Licklider, comprendió la necesidad de una red mundial, según consta en su documento de enero, 1960, Man-Computer Symbiosis (Simbiosis Hombre-Computadora).

"una red de muchos [ordenadores], conectados mediante líneas de comunicación de banda ancha" las cuales proporcionan "las funciones hoy existentes de las bibliotecas junto con anticipados avances en el guardado y adquisición de información y [otras] funciones simbióticas"

En octubre de 1962, Licklider fue nombrado jefe de la oficina de procesado de información DARPA, y empezó a formar un grupo informal dentro del DARPA del Departamento de Defensa de los Estados Unidos para investigaciones sobre ordenadores más avanzadas. Como parte del papel de la oficina de procesado de información, se instalaron tres terminales de redes: una para la System Development Corporation en Santa Monica, otra para el Proyecto Genie en la Universidad de California (Berkeley) y otra para el proyecto Multics en el Instituto Tecnológico de Massachusetts. La necesidad de Licklider de redes se haría evidente por los problemas que esto causó.

"Para cada una de estas tres terminales, tenía tres diferentes juegos de comandos de usuario. Por tanto, si estaba hablando en red con alguien en la S.D.C. y quería hablar con alguien que conocía en Berkeley o en el M.I.T. sobre esto, tenía que irme de la terminal de la S.C.D., pasar y registrarme en la otra terminal para contactar con él.

Dije, es obvio lo que hay que hacer: si tienes esas tres terminales, debería haber una terminal que fuese a donde sea que quisieras ir y en donde tengas interactividad. Esa idea es el ARPANet."

Robert W. Taylor, co-escritor, junto con Licklider, de "The Computer as a Communications Device" (El Ordenador como un Dispositivo de Comunicación), en una entrevista con el New York Times[3]









PAQUETES CONMUTADOS




Como principal problema en lo que se refiere a las interconexiones está el conectar diferentes redes físicas para formar una sola red lógica. Durante los años 60, varios grupos trabajaron en el concepto de la conmutación de paquetes. Normalmente se considera que Donald Davies (National Physical Laboratory), Paul Baran (Rand Corporation) y Leonard Kleinrock (MIT) lo han inventado simultáneamente.[4]

La conmutación es una técnica que nos sirve para hacer un uso eficiente de los enlaces físicos en una red de computadoras.

Un Paquete es un grupo de información que consta de dos partes: los datos propiamente dichos y la información de control, en la que está especificado la ruta a seguir a lo largo de la red hasta el destino del paquete. Mil octetos es el límite de longitud superior de los paquetes, y si la longitud es mayor el mensaje se fragmenta en otros paquetes.

Redes que provocarían la aparición de Internet




ARPANET




ARPANET se convirtió en el núcleo de lo que posteriormente sería Internet, y también en una herramienta primaria en el desarrollo de la tecnología del momento. ARPANET evolucionó usando estándares del proceso RFC, aún usado actualmente para proponer y distribuir protocolos y sistemas de Internet. El RFC1, titulado "Host Software", fue escrito por Steve Crocker desde la Universidad de California, Los Ángeles, y publicado el 7 de abril de 1969.

Las colaboraciones internacionales en ARPANET eran escasas; por varias razones políticas los desarrolladores europeos estaban preocupados en desarrollar las redes X.25, con la notable excepción del Norwegian Seismic Array en 1972 seguidos en 1973 por enlaces de los satélites a la estación terrestre de Tanum en Suecia y en la University College de Londres.




























UUCP




En 1979, dos estudiantes de la Universidad de Duke, Tom Truscott y Jim Ellis, propusieron la idea de usar scripts simples en Bourne Shell para transefir noticias y mensajes entre su universidad y la cercana Universidad de Carolina del Norte, Chapel Hill. Después de la salida del software al dominio público, la red de hosts UUCP usada para noticias Usenet se expandió rápidamente. UUCPnet, nombre que acabaría recibiendo, también crearía portales y vínculos entre Fidonet y los hosts de marcaje,telefónico BBS. Las redes UUCP se distribuyeron rápidamente debido a su bajo coste y a su capacidad de usar las líneas alquiladas ya existentes, los vínculos X.25 o incluso las conexiones de ARPANET. Antes de 1983 el número de hosts UUCP ya había aumentado a 550, casi duplicándose hasta los 940 en 1984.

Fusionando las redes y creando Internet




PROTOCOLO TCP/IP




Mapa de la red de prueba TCP/IP, en enero de 1982

Por esta época había muchos métodos diferentes de conexionado, hacía falta algo para unificarlos. Robert E. Kahn del ARPA y ARPANET contrató a Vint Cerf de la Universidad de Stanford para trabajar con él en el problema. Antes del 1973, habían pensado en una reformulación fundamental, donde las diferencias entre los protocolos de red se escondían usando un protocolo de red común, y donde eran los hosts los encargados de ser fiables, y no la red. Cerf atribuye a Hubert Zimmerman y a Louis Pouzin (diseñador de la red CYCLADES) un importante trabajo en este diseño.[8]

Con el rol de la red reducido al mínimo, se hizo posible juntar prácticamente todas las redes, sin importar sus características, resolviendo el problema inicial de Kahn. DARPA aceptó patrocinar el desarrollo del software prototipo, y tras muchos años de trabajo, la primera demostración (algo básica) de en cómo se había convertido al protocolo TCP/IP (en Julio de 1977). Este nuevo método se expandió rápidamente por las redes, y el 1 de Enero de 1983, los protocolos TCP/IP se hicieron los únicos protocolos aprobados en ARPANET, sustituyendo al anterior protocolo NCP.[

]

ARPANET a NSFNET




Después que ARPANET estuviera funcionando por varios años, ARPA buscó otra agencia para ceder la red de ordenadores; la tarea primaria de ARPA era impulsar investigaciones y desarrollos de avanzada, no manejar un servicio público de comunicaciones. Eventualmente, en julio de 1975, la red se cedió a la "Defense Communications Agency" que también era parte del Departamento de Defensa. En 1984, la porción militar de ARPANET se dividió como una red separada, la MILNET.

Las redes basadas alrededor de ARPANET eran pagadas por el gobierno y por tanto restringidas a usos no comerciales tales como investigación; el uso comercial estaba estrictamente prohibido. Las conexiones se restringieron a sitios militares y universidades. Durante los 80s, las conexiones se expandieron a más instituciones educacionales, e incluso a un creciente número de compañías tales como Digital Equipment Corporation y Hewlett-Packard, que estaban participando en proyectos de investigación y suministrando servicios.

Otra rama del gobierno, la National Science Foundation (NSF), se volvió fuertemente involucrada en investigación en Internet y empezó un desarrollo como sucesor de ARPANET. En 1984 esto resultó en la primera red de banda ancha diseñada específicamente para usar TCP/IP. Esto creció como NSFNet, establecida en 1986, para conectar y proveer acceso a una cantidad de supercomputadores establecidos por la NSF.





LA TRANSICIÓN HACIA INTERNET




Por entonces, ARPANET empezó a fusionarse con NSFNet, originando el término Internet,[10] con, "una internet" definido como cualquier red que usase el protocolo TCP/IP. "La Internet" significaba una red global y muy grande que usaba el protocolo TCP/IP, y que a su vez significaba NSFNet y ARPANET. Hasta entonces "internet" e "internetwork" (lit. "inter-red") se habían usado indistintamente, y "protocolo de internet" se usaba para referirse a otros sistemas de redes tales como Xerox Network Services.[]

Como el interés en la expansión de las conexiones creció, y aparecieron nuevas aplicaciones para ello, las tecnologías de Internet se esparcieron por el resto del mundo. En 1984, University College London reemplazó sus vínculos por satélite transatlánticos por TCP/IP por medio del International Packet Switched Service (Servicio Conmutado de Paquetes Internacional).

Varios sitios que no podían conectarse directamente a Internet empezaron a hacerlo por medio de simples portales para permitir la transferencia de correo electrónico, siendo esta última por entonces la aplicación más importante. Esos sitios con sólo conexiones intermitentes usarían UUCP o Fidonet, y confiarían en los portales entre esas redes e Internet. Algunos servicios de portales fueron más allá del simple peering de e-mail, ofreciendo servicios como el acceso a sitios FTP a través de UUCP o e-mail.




TCP/IP EN EL MUNDO ENTERO




La primera conexión ARPANET fuera de EEUU se hizo con NORSAR en Noruega en 1973, justo antes de las conexiones con Gran Bretaña. Todas estas conexiones se convirtieron en TCP/IP en 1982, al mismo tiempo que el resto de las ARPANET.

CERN, la Internet europea, el enlace al Pacífico y más allá [editar]

En 1984 Europa empezó a avanzar hacia un uso más general del TCP/IP, y se convenció al CERNET para que hiciera lo mismo. El CERNET, ya convertido, permaneció aislado del resto de Internet, formando una pequeña internet interna

En 1988 Daniel Karrenberg, del Instituto Nacional de Investigación sobre Matemáticas e Informática de Ámsterdam, visitó a Ben Segal, coordinador TCP/IP dentro del CERN; buscando por consejo sobre la transición del lado europeo de la UUCP Usenet network (de la cual la mayor parte funcionaba sobre enlaces X.25) a TCP/IP. En 1987, Ben Segal había hablado con Len Bosack, de la entonces pequeña compañía Cisco sobre routers TCP/IP, y pudo darle un consejo a Karrenberg y reexpedir una carta a Cisco para el hardware apropiado. Esto expandió la porción europea de Internet sobre las redes UUCP existentes, y en 1989 CERN abrió su primera conexión TCP/IP externa.[12] Esto coincidió con la creación de Réseaux IP Européens (RIPE), inicialmente un grupo de administradores de redes IP que se veían regularmente para llevar a cabo un trabajo coordinado. Más tarde, en 1992, RIPE estaba formalmente registrada como una cooperativa en Ámsterdam.

Al mismo tiempo que se producía el ascenso de la interconexión en Europa, se formaron conexiones hacia el ARPA y universidades australianas entre sí, basadas en varias tecnologías como X.25 y UUCPNet. Éstas estaban limitadas en sus conexiones a las redes globales, debido al coste de hacer conexiones de marcaje telefónico UUCP o X.25 individuales e internacionales. En 1989, las universidades australianas se unieron al empujón hacia los protocolos IP para unificar sus infraestructuras de redes. AARNet se formó en 1989 por el Comité del Vice-Canciller Australiano y proveyó una red basada en el protocolo IP dedicada a Australia.

En Asia, habiendo construido la JUNET (Red Universitaria Japonesa) una red basada en UUCP en 1984 Japón continuó conectándose a NSFNet en 1989 e hizo de anfitrión en la reunión anual de The Internet Society, INET'92, en Kobe. Singapur desarrolló TECHNET en 1990, y Thailandia consiguió una conexión a Internet global entre la Universidad de Chulalongkorn y UUNET en 1992.[]




Abriendo la red al comercio

Aunque el uso comercial estaba prohibido, su definición exacta era subjetiva y no muy clara. Todo el mundo estaba de acuerdo en que una compañía enviando una factura a otra compañía era claramente uso comercial, pero cualquier otro asunto podía ser debatido. UUCPNet y la IPSS X.25 no tenían esas restricciones, que eventualmente verían la excepción oficial del uso de UUCPNet en conexiones ARPANET y NSFNet. A pesar de ello, algunas conexiones UUCP seguían conectándose a esas redes, puesto que los administradores cerraban un ojo sobre su operación.




Durante los finales de los años 80 se formaron las primeras compañías Internet Service Provider (ISP). Compañías como PSINet, UUNET, Netcom, y Portal Software se formaron para ofrecer servicios a las redes de investigación regional y dar un acceso alternativo a la red, e-mail basado

















en UUCP y Noticias Usenet al público. El primer ISP de marcaje telefónico, world.std.com, se inauguró en 1989.

Esto causó controversia entre los usuarios conectados a través de una universidad, que no aceptaban la idea del uso no educativo de sus redes. Los ISP comerciales fueron los que eventualmente bajaron los precios lo suficiente como para que los estudiantes y otras escuelas pudieran participar en los nuevos campos de educación e investigación.

Para el año 1990, ARPANET había sido superado y reemplazado por nuevas tecnologías de red, y el proyecto se clausuró. Tras la clausura de ARPANET, en 1994, NSFNet, actualmente ANSNET (Advanced Networks and Services, Redes y Servicios Avanzados) y tras permitir el acceso de organizaciones sin ánimo de lucro, perdió su posición como base fundamental de Internet. Ambos, el gobierno y los proveedores comerciales crearon sus propias infraestructuras e interconexiones. Los NAPs regionales se convirtieron en las interconexiones primarias entre la multitud de redes y al final terminaron las restricciones comerciales.







EMAIL Y USENET—EL CRECIMIENTO DE LOS FOROS DE TEXTO




Se suele considerar al e-mail como la aplicación asesina de Internet; aunque realmente, el e-mail ya existía antes de Internet y fue una herramienta crucial en su creación. Empezó en 1965 como una aplicación de ordenadores centrales a tiempo compartido para que múltiples usuarios pudieran comunicarse. Aunque la historia no es clara, entre los primeros sistemas en tener una facilidad así se encuentran Q32, de SDC's, y CTSS del MIT.[]

La red de computadoras de ARPANET hizo una gran contribución en la evolución del correo electrónico. Existe un informe[ ]que indica transferencias de e-mail entre sistemas experimentales poco después de su creación. Ray Tomlinson inició el uso del signo signo @ para separar los nombres del usuario y su máquina, en 1971.[]

Se desarrollaron protocolos para transmitir el e-mail entre grupos de ordenadores centrales a tiempo compartido sobre otros sistemas de transmisión, como UUCP y el sistema de e-mail VNET, de IBM. El correo electrónico podía pasarse así entre un gran número de redes, incluyendo ARPANET, BITNET y NSFNET, así como a hosts conectados directamente a otros sitios vía UUCP.

Además, UUCPnet trajo una manera de publicar archivos de texto que se pudieran leer por varios otros. El software News, desarrollado por Steve Daniel y Tom Truscott en 1979 se usarían para distribuir noticias mensajes como tablones de anuncios. Esto evolucionó rápidamente a los grupos de discusión con un gran rango de contenidos. En ARPANET y NSFNET, concretamente en en la lista de correo de sflovers se crearon grupos de discusión similares por medio de listas de correo, que discutían asuntos técnicos y otros temas, como la ciencia ficción.




UNA BIBLIOTECA MUNDIAL—DE GOPHER A LA WWW




A medida que Internet creció durante los años 1980 y principios de los años 1990, mucha gente se dio cuenta de la creciente necesidad de poder encontrar y organizar ficheros e información. Los proyectos como Gopher, WAIS, y la FTP Archive list intentaron crear maneras de organizar datos distribuidos. Desafortunadamente, estos proyectos se quedaron cortos en poder alojar todos los tipos de datos existentes y en poder crecer sin cuellos de botella.

Uno de los paradigmas de interfaz de usuario más prometedores durante este periodo fue el hipertexto. La tecnología había sido inspirada por el "Memex" de Vannevar Bush[20] y desarrollado a través de la investigación de Ted Nelson en el Proyecto Xanadu y la investigación de Douglas Engelbart en el NLS.[21] Muchos pequeños sistemas de hipertexto propios se habían creado anteriormente, como el HyperCard de Apple Computer.

En 1991, Tim Berners-Lee fue el primero en desarrollar un implementación basada en red de concepto de hipertexto. Esto fue después de que Berners-Lee hubiera propuesto repetidamente su idea a las comunidades de hipertexto e Internet en varias conferencias sin acogerse—nadie lo implementaría por él. Trabajando en el CERN, Berners-Lee quería una manera de compartir información sobre su investigación. Liberando su implementación para el uso público, se aseguró que la tecnología se extendería.[22] Posteriormente, Gopher se convirtió en la primera interfaz de hipertexto comúnmente utilizada en Internet. Aunque las opciones del menú Gopher eran ejemplos de hipertexto, éstas no fueron comúnmente percibidas de esta manera. Unos de los primeros populares navegadores web, modelado después de HyperCard, fue ViolaWWW.

Los expertos generalmente están de acuerdo, sin embargo, que el punto decisivo para la World Wide Web comenzó con la introducción[23] de Mosaic[24] en 1993, un navegador web con interfaz gráfica desarrollado por un equipo en el National Center for Supercomputing Applications en la Universidad de Illinois en Urbana-Champaign (NCSA-UIUC), liderado por Marc Andreessen. Los fondos para Mosaic vinieron desde la High-Performance Computing and Communications Initiative, el programa de ayudas High Performance Computing and Communication Act of 1991 iniciado por el entonces senador Al Gore.[25] De hecho, la interfaz gráfica de Mosaic pronto se hizo más popular que Gopher, que en ese momento estaba principalmente basado en texto, y la WWW se convirtió en la interfaz preferida para acceder a Internet.

Mosaic fue finalmente suplantado en 1994 por Netscape Navigator de Andreessen, que reemplazó a Mosaic como el navegador web más popular en el mundo. La competencia de Internet Explorer y una variedad de otros navegadores casi lo ha sustituido completamente. Otro acontecimiento importante celebrado el 11 de enero de 1994, fue The Superhighway Summit en la Sala Royce de la UCLA. Esta fue la "primera conferencia pública que agrupó a todos los principales líderes de la industria, el gobierno y académicos en el campo [y] también comenzó el diálogo nacional sobre la Autopista de la información y sus implicaciones."[26]

Encontrando lo que necesitas—El buscador

Incluso antes de la World Wide Web, hubo buscadores que intentaron organizar Internet. El primero de estos fue Archie de la Universidad McGill en 1990, seguido en 1991 por WAIS y Gopher. Los tres sistemas fueron anteriores a la invención de la World Wide Web pero todos continuaron indexando la Web y el resto de Internet durante varios años después de que apareciera la Web. A 2006, aún hay servidores Gopher, aunque hay muchos más servidores web.

A medida que la Web creció, se crearon los buscadores y los directorios web para localizar las páginas en la Web y permitir a las personas encontrar cosas. El primer buscador web completamente de texto fue WebCrawler en 1994. Antes de WebCrawler, sólo se podían buscar títulos de páginas web. Otro de los primeros buscadores, Lycos, fue creado en 1993 como un proyecto universitario, y fue el primero en conseguir éxito comercial. Durantes los últimos años de 1990, tanto los directorios web como los buscadores web eran populares—Yahoo! (fundado en 1995) y Altavista (fundado en 1995) fueron los respectivos líderes de la industria.

Por agosto de 2001, el modelo de directorios había comenzado a ceder ante el de buscadores, mostrando el surgimiento de Google (fundado en 1998), que había desarrollado nuevos enfoques para el ordenamiento por relevancia. El modelo de directorios, aunque aún está disponible comúnmente, es menos utilizado que los buscadores.

El tamaño de las bases de datos, que había sido sido una característica de marketing significativa durante los primeros años de la década de 2000, fue igualmente sustituido por el énfasis en el ordenamiento por relevancia, los métodos con los cuales los buscadores intentan colocar los mejores resultados primero. El ordenamiento por relevancia se convirtió por primera vez en una cuestión importante alrededor de 1996, cuando se hizo evidente que no era práctico revisar listas completas de resultados. Por consiguiente, los algoritmos para el ordenamiento por relevancia se han ido mejorando continuamente. El método PageRank de Google para ordenar los resultados ha recibido la mayoría de la prensa, pero todos los principales buscadores refinan continuamente sus metodologías de ordenamiento con el objetivo de mejorar el orden de los resultados. En 2006, la posición en los buscadores es más importante que nunca, tanto que la industria ha desarrollado ("posicionadores en buscadores") para ayudar a los desarrolladores web a mejorar su posición en el buscador, y se ha desarrollado un cuerpo entero de jurisprudencia alrededor de cuestiones que afectan al posicionamiento en los buscadores, como el uso de marcas registradas en metatags. La venta de posiciones en buscadores por algunos buscadores ha creado también controversia entre bibliotecarios y defensores de los consumidores.

Un servidor web es un programa que implementa el protocolo HTTP (hypertext transfer protocol). Este protocolo pertenece a la capa de aplicación del modelo OSI y está diseñado para transferir lo que llamamos hipertextos, páginas web o páginas HTML (hypertext markup language): textos complejos con enlaces, figuras, formularios, botones y objetos incrustados como animaciones o reproductores de música.

Es un programa que se ejecuta continuamente en un ordenador (también se emplea el término para referirse al ordenador que lo ejecuta), manteniéndose a la espera de peticiones por parte de un cliente (un navegador web) y que responde a estas peticiones adecuadamente, mediante una página web que se exhibirá en el navegador o mostrando el respectivo mensaje si se detectó algún error.

Instalar un servidor web en nuestro PC nos permitirá, entre otras cosas, poder montar nuestra propia página web sin necesidad de contratar hosting, probar nuestros desarrollos vía local, acceder a los archivos de nuestro equipo desde un PC remoto (aunque para esto existen otras opciones, como utilizar un servidor FTP) o utilizar alguno de los programas basados en web tan interesantes que están viendo la luz últimamente. El problema de usar nuestro ordenador como servidor web es que conviene tenerlo encendido permanentemente (para que esté accesible de forma continua como la mayoría de los sitios webs), con el consiguiente coste debido al consumo de electricidad (conviene tener en cuenta que hay alojamientos web gratuitos, incluso sin publicidad y con interesantes funciones).

Un dominio de Internet es un nombre base que agrupa a un conjunto de equipos o dispositivos y que permite proporcionar nombres de equipo más fácilmente recordables en lugar de una dirección IP numérica. Permiten a cualquier servicio (de red) moverse a otro lugar diferente en la topología de Internet, que tendrá una dirección IP diferente. Técnicamente, es un recurso nemotécnico que se asocia a nodos de la red Internet con el objeto de facilitar su identificación, constituido por expresiones alfanuméricas concatenadas en varios niveles organizados de forma jerárquica.





DOMINIOS DE NIVEL SUPERIOR




Cada nombre de dominio termina en un Dominio de nivel superior (TLD por Top Level Domain), que es siempre o bien uno de una pequeña lista de nombres genéricos (tres o más caracteres), o un código territorial de dos carácteres basado en la ISO-3166 (hay pequeñas excepciones y los nuevos códigos se integran caso por caso).


Organizaciones regentes de los dominios de Internet

IANA

IANA es la Autoridad para la Asignación de Números de Internet (del Inglés: Internet Assigned Numbers Authority), responsable de la coordinación global de los protocolos de Raíz DNS, direccionamiento IP y otros recursos del Protocolo de Internet [1]


La Corporación de Internet para la Asignación de nombres y números de Dominios (del Inglés: Internet Corporation for Assigned Names and Numbers) es una organización sin fines de lucro que opera a nivel de asignar espacio de direcciones numéricas de protocolo de Internet (IP), identificadores de protocolo y de las administración del sistema de servidores raíz. Aunque en un principio estos servicios los desempeñaba Internet Assigned Numbers Authority (IANA) y otras entidades bajo contrato con el gobierno de EE.UU., actualmente son responsabilidad de ICANN. [2]

LATINOAMERICANN

LatinoamerICANN es una organización para la difusión de información y dialogo en temas de Nombres de Dominio, Numeros IP y Gobierno o Gobernanza de Internet en América Latina y el Caribe. Su misión asimismo es la de colocar información en español, portugues y frances de acceso para todos, considerando que la información en los idiomas de la región resulta siendo un elemento para poder comprender los fenómenos propios del internet, desde una perspectiva regional en el contexto global[3]

LACLTD

LACTLD es una organización sin fines de lucro que busca agrupar a los administradores de los ccTLDs de América Latina y el Caribe, con el objeto de Coordinar políticas en conjunto, así como estrategias de desarrollo de los nombres de dominio a nivel regional; representar los intereses conjuntos de sus miembros ante organismos pertinentes; promover el desarrollo de los ccTLDs de la región; fomentar la cooperación y el intercambio de experiencia entre sus miembros, en todos los aspectos necesarios para el adecuado funcionamiento de los ccTLDs y establecer lazos de colaboración con las organizaciones análogas de otras regiones del mundo.

INTERNIC

InterNIC es un servicio y marca registrada del Ministerio de Comercio de los Estados Unidos de América y licenciado a IANA para la gestión de disputas públicas relacionadas con el registro de nombres de dominios.

LACNIC

LACNIC es la organización para el Registro de Direcciones de Internet para América Latina y el Caribe. Su objetivo es la construcción y articulación de esfuerzos colaborativos para el desarrollo y estabilidad de Internet en América Latina y el Caribe.

NIC regionales

Un NIC regional es una organización pública o privada sin fines de lucro delegada por IANA y/o ICANN para la administración de los nombres de dominio regionales de un ccTLD. Por lo general, el nombre del NIC regional es de la forma NIC.ccTLD, donde ccTLD corresponde con el código de país asignado. Así, por ejemplo, el ccTLD .MX es gestionado por NIC.MX y los dominios mexicanos (bajo.mx) son administrados por este NIC. Siendo servicio público y propiedad de la humanidad, los NIC regionales suelen estar administardos a su vez por algún ente, ministerio, institución, oficina, departamento o delegación de los gobiernos de cada país. Solo por citar algunos de los cientos de NIC según cada ccTLD, a modo de ejemplo tenemos:




Los dominios dominicanos bajo .do gestionados por NIC.DO

Los dominios peruanos bajo .pe gestionados por NIC.PE

Los dominios bolivianos bajo .bo gestionados por NIC.BO

Los dominios chilenos bajo .cl gestionados por NIC.CL

Los dominios colombianos bajo .co gestionados por NIC.CO

Los dominios Costa Rica bajo .cr gestionados por NIC.CR

Los dominios argentinos bajo .ar gestionados por NIC.AR

Los dominios venezolanos bajo .ve gestionados por NIC.VE

Los dominios brasileños bajo .br gestionados por NIC.BR

Los dominios españoles bajo .es gestionados por NIC.ES

Los dominios alemanes bajo .de gestionados por NIC.DE

Los dominios chinos bajo .cn gestionados por NIC.CN

Los dominios australianos bajo .au gestionados por NIC.AU

Los dominios mexicanos bajo .mx gestionados por NIC.MX

Los dominios panameños bajo .pa gestionados por NIC.PA






Sin embargo, el hecho de que HTTP y HTML estén íntimamente ligados no debe dar lugar a confundir ambos términos. HTML es un lenguaje de marcas y HTTP es un protocolo.

Un servidor web se mantiene a la espera de peticiones HTTP por parte de un cliente HTTP que solemos conocer como navegador. El cliente realiza una petición al servidor y éste le responde con el contenido que el cliente solicita. A modo de ejemplo, al teclear www.wikipedia.org en nuestro navegador, éste realiza una petición HTTP al servidor de dicha dirección. El servidor responde al cliente enviando el código HTML de la página; el cliente, una vez recibido el código, lo interpreta y lo exhibe en pantalla. Como vemos con este ejemplo, el cliente es el encargado de interpretar el código HTML, es decir, de mostrar las fuentes, los colores y la disposición de los textos y objetos de la página; el servidor tan sólo se limita a transferir el código de la página sin llevar a cabo ninguna interpretación de la misma.

Sobre el servicio web clásico podemos disponer de aplicaciones web. Éstas son porciones de código que se ejecutan cuando se realizan ciertas peticiones o respuestas HTTP. Hay que distinguir entre:

Aplicaciones en el lado del cliente: el cliente web es el encargado de ejecutarlas en la máquina del usuario. Son las aplicaciones tipo Java o Javascript: el servidor proporciona el código de las aplicaciones al cliente y éste, mediante el navegador, las ejecuta. Es necesario, por tanto, que el cliente disponga de un navegador con capacidad para ejecutar aplicaciones (también llamadas scripts). Comúnmente, los navegadores permiten ejecutar aplicaciones escritas en lenguaje javascript y java, aunque pueden añadirse más lenguajes mediante el uso de plugins.

Aplicaciones en el lado del servidor: el servidor web ejecuta la aplicación; ésta, una vez ejecutada, genera cierto código HTML; el servidor toma este código recién creado y lo envía al cliente por medio del protocolo HTTP.

Las aplicaciones de servidor muchas veces suelen ser la mejor opción para realizar aplicaciones web. La razón es que, al ejecutarse ésta en el servidor y no en la máquina del cliente, éste no necesita ninguna capacidad añadida, como sí ocurre en el caso de querer ejecutar aplicaciones javascript o java. Así pues, cualquier cliente dotado de un navegador web básico puede utilizar este tipo de aplicaciones.

Algunos conceptos relacionados con las aplicaciones web son:








JSP (Tecnología Java )

Algunos servidores web importantes son:




Otros servidores, más simples pero más rápidos, son:



World Wide Web





Esta página o sección está siendo traducida del idioma inglés a partir del artículo WWW, razón por la cual puede haber lagunas de contenidos, errores sintácticos o escritos sin traducir.






Antiguo logo de WWW diseñado por Robert Cailliau

Para otros usos de este término, véase WWW.

Esta entrada podría confundirse con la relativa a WorldWideWeb.

Esta entrada podría confundirse con la relativa a Internet.

Esta entrada podría confundirse con la relativa a web.

En informática, World Wide Web (o la "Web") o Red Global Mundial es un sistema de documentos de hipertexto y/o hipermedios enlazados y accesibles a través de Internet. Con un navegador Web, un usuario visualiza páginas web que pueden contener texto, imágenes, vídeos u otros contenidos multimedia, y navega a través de ellas usando hiperenlaces.

La Web fue creada alrededor de 1989 por el inglés Tim Berners-Lee y el belga Robert Cailliau mientras trabajaban en el CERN en Ginebra, Suiza, y publicado en 1992. Desde entonces, Berners-Lee ha jugado un papel activo guiando el desarrollo de estándares Web (como los lenguajes de marcado con los que se crean las páginas Web), y en los últimos años ha abogado por su visión de una Web Semántica.








FUNCIONAMIENTO DE LA WEB




La visualización de una página web de la World Wide Web normalmente comienza tecleando la URL de la página en el navegador web, o siguiendo un enlace de hipertexto a esa página o recurso. En ese momento el navegador comienza una serie de comunicaciones, transparentes para el usuario, para obtener los datos de la página y visualizarla.Cuando se utiliza bastante en empresas

El primer paso consiste en traducir la parte del nombre del servidor de la URL en una dirección IP usando la base de datos distribuida de Internet conocida como DNS. Esta dirección IP es necesaria para contactar con el servidor web y poder enviarle paquetes de datos.

El siguiente paso es enviar una petición HTTP al servidor Web solicitando el recurso. En el caso de una página web típica, primero se solicita el texto HTML y luego es inmediatamente analizado por el navegador, el cual, después, hace peticiones adicionales para los gráficos y otros ficheros que formen parte de la página. Las estadísticas de popularidad de un sitio web normalmente están basadas en el número de 'páginas vistas' o las 'peticiones' de servidor asociadas, o peticiones de fichero, que tienen lugar.

Al recibir los ficheros solicitados desde el servidor web, el navegador renderiza la página tal y como se describe en el código HTML, el CSS y otros lenguajes web. Al final se incorporan las imágenes y otros recursos para producir la página que ve el usuario en su pantalla.

La mayoría de las páginas web contienen hiperenlaces a otras páginas relacionadas y algunas también contienen descargas, documentos fuente, definiciones y otros recursos web.

Esta colección de recursos útiles y relacionados, interconectados a través de enlaces de hipertexto, es lo que ha sido denominado como 'red' (web, en inglés) de información. Al trasladar esta idea a Internet, se creó lo que Tim Berners-Lee llamó WorldWideWeb (un término escrito en CamelCase, posteriormente desechado) en 1990.[]

si un usuario accede de nuevo a una página después de un pequeño intervalo, es probable que no se vuelvan a recuperar los datos del servidor web de la forma en que se explicó en el apartado anterior. Por defecto, los navegadores almacenan en una caché del disco duro local todos los recursos web a los que el usuario va accediendo. El navegador enviará una petición HTTP sólo si la página ha sido actualizada desde la última carga, en otro caso, la versión almacenada se reutilizará en el paso de renderizado para agilizar la visualización de la página.

Esto es particularmente importante para reducir la cantidad de tráfico web en Internet. La decisión sobre la caducidad de la página se hace de forma independiente para cada recurso (imagen, hoja de estilo, ficheros JavaScript, etc, además de para el propio código HTML). Sin embargo en sitios de contenido muy dinámico, muchos de los recursos básicos sólo se envían una vez por sesión. A los diseñadores de sitios web les interesa reunir todo el código CSS y JavaScript en unos pocos ficheros asociados a todo el sitio web, de forma que pueden ser descargados en las cachés de los usuarios y reducir así el tiempo de carga de las páginas y las peticiones al servidor.

Hay otros componentes de Internet que pueden almacenar contenido Web. El más común en la práctica son los frecuentes firewalls de empresa y académicos donde se pueden almacenar los recursos web solicitados por un usuario para el beneficio de todos los que estén conectados a ese firewall. Algunos buscadores como Google, Yahoo!, GlowBoom o AltaVista también almacenan contenidos de sitios Web.

Aparte de las utilidades creadas en los servidores Web que pueden determinar cuándo los ficheros físicos han sido actualizados, los diseñadores de páginas web generadas dinámicamente pueden controlar las cabeceras HTTP enviadas a los usuarios, de forma que las páginas intermedias o sensibles a problemas de seguridad no sean guardadas en caché. Por ejemplo, en los bancos on line y las páginas de noticias se utiliza frecuentemente este sistema.

Esto nos ayuda a comprender la diferencia entre los verbos HTTP 'GET' y 'POST' - los datos solicitados con GET pueden ser almacenados en la caché, si se cumplen las otras condiciones, mientras que con los datos obtenidos después de enviar información al servidor con POST normalmente no se puede.




HISTORIA




Este NeXTcube usado por Berners-Lee en el CERN se convirtió en el primer servidor web.

La idea subyacente de la Web se remonta a la propuesta de Vannevar Bush en los años 40 sobre un sistema similar: a grandes rasgos, un entramado de información distribuida con una interfaz operativa que permitía el acceso tanto a la misma como a otros artículos relevantes determinados por claves. Este proyecto nunca fue materializado, quedando relegado al plano teórico bajo el nombre de MEMEX. Es en los años 50 cuando Ted Nelson realiza la primera referencia a un sistema de hipertexto, donde la información es enlazada de forma libre. Pero no es hasta 1980, con un soporte operativo tecnológico para la distribución de información en redes informáticas, cuando Tim Berners-Lee propone ENQUIRE al CERN (refiriéndose a Enquire Within Upon Everything, en castellano Preguntando de Todo Sobre Todo), donde se materializa la realización práctica de este concepto de incipientes nociones de la Web.

En marzo de 1989, Tim Berners Lee, ya como personal de la divisón DD del CERN, redacta la propuesta,[2] que referenciaba a ENQUIRE y describía un sistema de gestión de información más elaborado. No hubo un bautizo oficial o un acuñamiento del término web en esas referencias iniciales utilizándose para tal efecto el término mesh. Sin embargo, el World Wide Web ya había nacido. Con la ayuda de Robert Cailliau, se publicó una propuesta más formal para la world wide web[3] el 12 de noviembre de 1990.

Berners-Lee usó un NeXTcube como el primer servidor web del mundo y también escribió el primer navegador web, WorldWideWeb en 1990. En las Navidades del mismo año, Berners-Lee había creado todas las herramientas necesarias para que una web funcionase:[4] el primer navegador web (el cual también era un editor web), el primer servidor web y las primeras páginas web[5] que al mismo tiempo describían el proyecto.

El 6 de agosto de 1991, envió un pequeño resumen del proyecto World Wide Web al newsgroup[6] alt.hypertext. Esta fecha también señala el debut de la web como un servicio disponible públicamente en Internet.

El concepto, subyacente y crucial, del hipertexto tiene sus orígenes en viejos proyectos de la década de los 60, como el Proyecto Xanadu de Ted Nelson y el sistema on-line NLS de Douglas Engelbart. Los dos, Nelson y Engelbart, estaban a su vez inspirados por el ya citado sistema basado en microfilm "memex", de Vannevar Bush.

El gran avance de Berners-Lee fue unir hipertexto e Internet. En su libro Weaving the Web (en castellano, Tejiendo la Red), explica que él había sugerido repetidamente que la unión entre las dos tecnologías era posible para miembros de las dos comunidades tecnológicas, pero como nadie aceptó su invitación, decidió, finalmente, hacer frente al proyecto él mismo. En el proceso, desarrolló un sistema de identificadores únicos globales para los recursos web y también: el Uniform Resource Identifier.

World Wide Web tenía algunas diferencias de los otros sistemas de hipertexto que estaban disponibles en aquel momento:

WWW sólo requería enlaces unidireccionales en vez de los bidireccionales. Esto hacía posible que una persona enlazara a otro recurso sin necesidad de ninguna acción del propietario de ese recurso. Con ello se reducía significativamente la dificultad de implementar servidores web y navegadores (en comparación con los sistemas anteriores), pero en cambio presentaba el problema crónico de los enlaces rotos.

A diferencia de sus predecesores, como HyperCard, World Wide Web era no-propietario, haciendo posible desarrollar servidores y clientes independientemente y añadir extensiones sin restricciones de licencia.

El 30 de abril de 1993, el CERN anunció[7] que la web sería gratuita para todos, sin ningún tipo de honorarios.

ViolaWWW fue un navegador bastante popular en los comienzos de la web que estaba basado en el concepto de la herramienta hipertextual de software de Mac denominada HyperCard. Sin embargo, los investigadores generalmente están de acuerdo en que el punto de inflexión de la World Wide Web comenzó con la introducción[8] del navegador[9] web Mosaic en 1993, un navegador gráfico desarrollado por un equipo del NCSA en la Universidad de Illinois en Urbana-Champaign (NCSA-UIUC), dirigido por Marc Andreessen. Funding para Mosaic vino del High-Performance Computing and Communications Initiative, un programa de fondos iniciado por el entonces gobernador Al Gore High Performance Computing and Communication Act of 1991, también conocida como la Gore Bill.[10] Antes del lanzamiento de Mosaic, las páginas web no integraban un amplio entorno gráfico y su popularidad fue menor que otros protocolos anteriores ya en uso sobre Internet, como el protocolo Gopher y WAIS. El interfaz gráfico de usuario de Mosaic permitió a la WWW convertirse en el protocolo de Internet más popular de una manera fulgurante.




ESTÁNDARES WEB




Destacamos los siguientes estándares:


El Identificador de Recurso Uniforme (URI), que es un sistema universal para referenciar recursos en la Web, como páginas web,


El Protocolo de Transferencia de Hipertexto (HTTP), que especifica cómo se comunican el navegador y el servidor entre ellos.


El Lenguaje de Marcado de Hipertexto (HTML), usado para definir la estructura y contenido de documentos de hipertexto.


El Lenguaje de Marcado Extensible XML, usado para describir la estructura de los documentos de texto.


Berners-Lee ahora (en 2007) dirige el World Wide Web Consortium (W3C), el cual desarrolla y mantiene esos y otros estándares que permiten a los ordenadores de la Web almacenar y comunicar efectivamente diferentes formas de información.




JAVA Y JAVASCRIPT




Un avance significativo en la tecnología web fue la Plataforma Java de Sun Microsystems. Este lenguaje permite que las páginas web contengan pequeños programas (llamados applets) directamente en la visualización. Estos applets se ejecutan en el ordenador del usuario, proporcionando un interfaz de usuario más rico que simples páginas web. Los applets Java del cliente nunca obtuvieron la popularidad que Sun esperaba de ellos, por una serie de razones, incluyendo la falta de integración con otros contenidos (los applets fueron confinados a pequeñas cajas dentro de la página renderizada) y el hecho de que muchos ordenadores del momento eran vendidos a los usuarios finales sin una JVM correctamente instalada, por lo que se necesitaba que el usuario descargara la máquina virtual antes de que el applet comenzara a aparecer. Actualmente Adobe Flash desempeña muchas de las funciones que originalmente se pensaron que podrían hacer los applets de Java incluyendo la ejecución de contenido de vídeo, animaciones y algunas características superiores de GUI. En estos momentos Java se utiliza más como plataforma y lenguaje para el lado del servidor y otro tipo de programación.

JavaScript, en cambio, es un lenguaje de script que inicialmente fue desarrollado para ser usado dentro de las páginas web. La versión estandarizada es el ECMAScript. Aunque el nombre es similar a Java, JavaScript fue desarrollado por Netscape y no tiene nada que ver con Java, a parte de que, como Java, su sintaxis se deriva del lenguaje de programación C. En unión con el Document Object Model de una página web, JavaScript se ha convertido en una tecnología mucho más importante de lo que pensaron sus creadores originales. La manipulación del Modelo de Objetos de Documento después de que la página ha sido enviada al cliente se ha denominado HTML Dinámico (DHTML), para enfatizar un cambio con respecto a las visualizaciones de HTML estático.

En su forma más simple, toda la información opcional y las acciones disponibles en las páginas web con JavaScript ya son cargadas la primera vez que se envía la página. Ajax ("Asynchronous JavaScript And XML", en español, JavaScript Asíncrono y XML) es una tecnología basada en JavaScript que puede tener un efecto significativo para el desarrollo de la Web. Ajax proporciona un método por el cual grandes o pequeñas partes dentro de una página web pueden actualizarse!, usando nueva información obtenida de la red en respuesta a las acciones del usuario. Esto permite que la página sea mucho más confiable, interactiva e interesante, sin que el usuario tenga que esperar a que se cargue toda la página. Ajax es visto como un aspecto importante de lo que suele llamarse Web 2.0. Ejemplos de técnicas Ajax usadas actualmente pueden verse en Gmail, Google Maps etc.

Implicaciones sociológicas

La Web, tal y como la conocemos hoy día, ha permitido un flujo de comunicación global a una escala sin precedentes en la historia humana. Personas separadas en el tiempo y el espacio, pueden usar la Web para intercambiar- o incluso desarrollar mutuamente- sus pensamientos más íntimos, o alternativamente sus actitudes y deseos cotidianos. Experiencias emocionales, ideas políticas, cultura, idiomas musicales, negocio, arte, fotografías, literatura... todo puede ser compartido y diseminado digitalmente con el menor esfuerzo, haciéndolo llegar casi de forma inmediata a cualquier otro punto del planeta. Aunque la existencia y uso de la Web se basa en tecnología material, que tiene a su vez sus propias desventajas, esta información no utiliza recursos físicos como las bibliotecas o la prensa escrita. Sin embargo, la propagación de información a través de la Web (vía Internet) no está limitada por el movimiento de volúmenes físicos, o por copias manuales o materiales de información. Gracias a su carácter virtual, la información en la Web puede ser buscada más fácil y eficientemente que en cualquier medio físico, y mucho más rápido de lo que una persona podría recabar por sí misma a través de un viaje, correo, teléfono, telégrafo, o cualquier otro medio de comunicación.

La Web es el medio de mayor difusión de intercambio personal aparecido en la Historia de la Humanidad, muy por delante de la imprenta. Esta plataforma ha permitido a los usuarios interactuar con muchos más grupos de personas dispersas alrededor del planeta, de lo que es posible con las limitaciones del contacto físico o simplemente con las limitaciones de todos los otros medios de comunicación existentes combinados.

Como bien se ha descrito, el alcance de la Red hoy día es difícil de cuantificar. En total, según las estimaciones de 2006, el número total de páginas web, bien de acceso directo mediarte URL, bien mediante el acceso a través de enlace, es de más de 600.000 millones; es decir, 6 páginas por cada persona viva en el planeta. A su vez, la difusión de su contenido es tal, que en poco más de 10 años, hemos codificado medio billón de versiones de nuestra historia colectiva, y la hemos puesto frente a 1.000 millones de personas. Es en definitiva, la consecución de una de las mayores ambiciones del hombre: desde la antigua Mongolia, pasando por la Biblioteca de Alejandría o la mismísima Enciclopedia de Rousseau y Diderot el hombre ha tratado de recopilar en un mismo tiempo y lugar todo el saber acumulado desde sus inicios hasta ese momento. El hipertexto ha hecho posible ese sueño.

Como la Web tiene un ámbito de influencia global, se ha sugerido su importancia en la contribución al entendimiento mutuo de las personas por encima de fronteras físicas y/o ideológicas. Además de todo lo reseñado, la red ha propiciado otro logro sin precedentes en la comunicación como es la adopción de una lengua franca, el inglés, como vehículo a través del cual hacer posible el intercambio de información.




PUBLICACIÓN DE PÁGINAS




La Web está disponible como una plataforma más englobada dentro de los mass media. Para "publicar" una página Web, no es necesario acudir a un editor ni otra institución, ni siquiera poseer conocimientos técnicos más allá de los necesarios para usar un editor de texto estándar.

A diferencia de los libros y documentos, el hipertexto no necesita de un orden lineal de principio a final. No precisa de subdivisiones en capítulos, secciones, subsecciones, etc.

Aunque algunos sitios web están disponibles en varios idiomas, muchos se encuentran únicamente en su idioma local. Adicionalmente, no todos los softwares soportan todos los caracteres especiales, y lenguajes RTL. Estos factores son algunas de las puntualizaciones que faltan por unificarse en aras de una estandarización global. Por lo general, a exclusión de aquellas páginas que hacen uso de grafías no románicas, es cada vez más generalizado el uso del formato Unicode UTF-8 como codificador de caracteres.

Las facilidades gracias a las cuales hoy día es posible publicar material en web quedan patentes en el número al alza de nuevas páginas personales, en las aquellas con fines comerciales, divulgativas, bloggers, etc. El desarrollo de aplicaciones gratuitas capaces de generar páginas web de una manera totalmente gráfica e intuitiva, así como un número emergente de servicios de alojamiento web sin coste alguno han contribuido a este crecimiento sin precedentes.

En muchos países los sitios web publicados deben respetar la accesibilidad web, viniendo regulado dicho concepto por Normativas o Pautas que indican el nivel de accesibilidad de dicho sitio:

Pautas de accesibilidad al contenido Web 1.0 WCAG desarrolladas por el W3C dentro de la Iniciativa WAI (Web Accesibility Iniciative).

Norma UNE:139803

Problemas de velocidad

La frustración sobre los problemas de congestión en la infraestructura de Internet y la alta latencia que provoca la lenta navegación, ha llevado a crear un nombre alternativo para la World Wide Web: la World Wide Wait (en castellano, la Gran Espera Mundial). Aumentar la velocidad de Internet es una discusión latente sobre el uso de tecnologías de peering y QoS. Otras soluciones para reducir las esperas de la Web se pueden encontrar en W3C.

Las guías estándar para los tiempos de respuesta ideales de las páginas web son (Nielsen 1999, página 42):

0,1 segundos (una décima de segundo). Tiempo de respuesta ideal. El usuario no percibe ninguna interrupción.

1 segundo. Tiempo de respuesta más alto que es aceptable. Los tiempos de descarga superiores a 1 segundo interrumpen la experiencia del usuario.

10 segundos. Tiempo de respuesta inaceptable. La experiencia de usuario es interrumpida y el usuario puede marcharse del sitio web o sistema.

Estos tiempos son útiles para planificar la capacidad de los servidores web.

Enlaces rotos y almacenamiento de la web

Con el paso del tiempo, muchos recursos web enlazados por hiperenlaces desaparecen, se cambia su localización, o son reemplazados con distinto contenido. Este fenómeno se denomina en algunos círculos como "enlaces rotos" y los hiperenlaces afectados por esto suelen llamarse "enlaces muertos".

La naturaleza efímera de la Web ha hecho aparecer muchos esfuerzos de almacenar la Web. El Archivo de Internet es uno de los esfuerzos más conocidos, llevan almacenando la web desde 1996.




EL PREFIJO WWW EN LAS DIRECCIONES WEB




Es muy común encontrar el prefijo "WWW" al comienzo de las direcciones web debido a la costumbre de nombrar a los host de Internet (los servidores) con los servicios que proporcionan. De esa forma, por ejemplo, el nombre de host para un servidor web normalmente es "WWW", para un servidor FTP se suele usar "ftp", y para un servidor de noticias USENET, "news" o "nntp" (en relación al protocolo de noticias NNTP). Estos nombres de host aparecen como subdominios de DNS, como en "www.example.com".

El uso de estos prefijos no está impuesto por ningún estándar, de hecho, el primer servidor web se encontraba en "nxoc01.cern.ch"[13] e incluso hoy en día existen muchos sitios Web que no tienen el prefijo "www". Este prefijo no tiene ninguna relación con la forma en que se muestra el sitio Web principal. El prefijo "www" es simplemente una elección para el nombre de subdominio del sitio Web.

Algunos navegadores Web añaden automáticamente "www." al principio, y posiblemente ".com"" al final, en las URLs que se teclean, si no se encuentra el host sin ellas. Internet Explorer, Mozilla Firefox y Opera también añadirán "http://www." y ".com" al contenido de la barra de dirección si se pulsan al mismo tiempo las teclas de Control y Enter. Por ejemplo, si se teclea "ejemplo" en la barra de direcciones y luego se pulsa sólo Enter o Control+Enter normalmente buscará "http://www.ejemplo.com", dependiendo de la versión exacta del navegador y su configuración.







NAVEGADORES WEB













Konqueror sobre linux


Lynx sobre linux






















Servidores Web




Servidor HTTP Apache (Libre, servidor más usado del mundo)








Tomcat (Libre, del proyecto Jakarta de Apache)


Geronimo (Libre, orientado a J2EE, del proyecto Jakarta de Apache, actualmente se encuentra en desarrollo)








Otras tecnologías




CFM Coldfusion










JSP (Tecnología Java )




Tipología web










Bitácora o Weblog / Blog






Navegador web








Navegador Web Mozilla Firefox 3 en GNU/Linux.

Un navegador web (del inglés, web browser) es una aplicación software que permite al usuario recuperar y visualizar documentos de hipertexto, comúnmente descritos en HTML, desde servidores web de todo el mundo a través de Internet. Esta red de documentos es denominada World Wide Web (WWW). Cualquier navegador actual permite mostrar o ejecutar gráficos, secuencias de vídeo, sonido, animaciones y programas diversos además del texto y los hipervínculos o enlaces. La funcionalidad básica de un navegador web es permitir la visualización de documentos de texto, posiblemente con recursos multimedia incrustados. Los documentos pueden estar ubicados en la computadora en donde está el usuario, pero también pueden estar en cualquier otro dispositivo que esté conectado a la computadora del usuario o a través de Internet, y que tenga los recursos necesarios para la transmisión de los documentos (un software servidor web). Tales documentos, comúnmente denominados páginas web, poseen hipervínculos que enlazan una porción de texto o una imagen a otro documento, normalmente relacionado con el texto o la imagen.

El seguimiento de enlaces de una página a otra, ubicada en cualquier computadora conectada a la Internet, se llama navegación; que es de donde se origina el nombre de navegador. Por otro lado, hojeador es una traducción literal del original en inglés, browser, aunque su uso es minoritario.











HISTORIA




El primer navegador, desarrollado en el CERN a finales de 1990 y principios de 1991 por Tim Berners-Lee, era bastante sofisticado y gráfico, pero sólo funcionaba en estaciones NeXT.

El navegador Mosaic, que funcionaba inicialmente en entornos UNIX sobre X11, fue el primero que se extendió debido a que pronto el NCSA preparó versiones para Windows y Macintosh. Sin embargo, poco más tarde entró en el mercado Netscape Navigator que rápidamente superó en capacidades y velocidad a Mosaic. Este navegador tiene la ventaja de funcionar en casi todos los UNIX, así como en entornos Windows.

Estimación del uso en el período 1996-2006

Internet Explorer (Ex Spyglass Mosaic) fue la apuesta tardía de Microsoft para entrar en el mercado y hoy en día ha conseguido desbancar al Netscape Navigator entre los usuarios de Windows. En los últimos años se ha vivido una auténtica explosión del número de navegadores, que ofrecen cada vez mayor integración con el entorno de ventanas en el que se ejecutan. Netscape Communications Corporation liberó el código fuente de su navegador, naciendo así el proyecto Mozilla.

Finalmente Mozilla fue reescrito desde cero tras decidirse a desarrollar y usar como base un nuevo conjunto de widgets multiplataforma basado en XML llamado XUL y esto hizo que tardara bastante más en aparecer de lo previsto inicialmente, apareciendo una versión 1.0 de gran calidad y para muchísimas plataformas a la vez el 5 de junio del 2002.

A finales de 2004 aparece en el mercado Firefox, una rama de desarrollo de Mozilla que pretende hacerse con parte del mercado de Internet Explorer. Se trata de un navegador más ligero que su hermano mayor.




FUNCIONAMIENTO DE LOS NAVEGADORES




La comunicación entre el servidor web y el navegador se realiza mediante el protocolo HTTP, aunque la mayoría de los hojeadores soportan otros protocolos como FTP, Gopher, y HTTPS (una versión cifrada de HTTP basada en Secure Socket Layer o Capa de Conexión Segura (SSL)).

La función principal del navegador es descargar documentos HTML y mostrarlos en pantalla. En la actualidad, no solamente descargan este tipo de documentos sino que muestran con el documento sus imágenes, sonidos e incluso vídeos streaming en diferentes formatos y protocolos. Además, permiten almacenar la información en el disco o crear marcadores (bookmarks) de las páginas más visitadas.

Algunos de los navegadores web más populares se incluyen en lo que se denomina una Suite. Estas Suite disponen de varios programas integrados para leer noticias de Usenet y correo electrónico mediante los protocolos NNTP, IMAP y POP.

Los primeros navegadores web sólo soportaban una versión muy simple de HTML. El rápido desarrollo de los navegadores web propietarios condujo al desarrollo de dialectos no estándares de HTML y a problemas de interoperabilidad en la web. Los más modernos (como Amaya, Mozilla, Netscape, Opera y versiones recientes de Internet Explorer) soportan los estándares HTML y XHTML (comenzando con HTML 4.01, los cuales deberían visualizarse de la misma manera en todos ellos).

Los estándares web son publicados por el World Wide Web Consortium.

Ver algunos aspectos generales de cómo se busca información en Navegación Intuitiva.

Uso actual de navegadores web

Actualmente el navegador más utilizado en el mundo es Internet Explorer en todas sus versiones, algunas empresas indican que esta ventaja se debe a que viene integrado con Windows, detrás de éste está el navegador de Mozilla Firefox, el cual se está popularizando cada vez más. Firefox es un competidor serio al producto de Microsoft. Existen también los navegadores Safari, Netscape Navigator, Opera y Chrome los cuales tienen un uso de menos del 2% en el mercado. Además existe Konqueror del proyecto KDE en GNU/Linux, y Epiphany el navegador oficial de Gnome.

Ejemplos de navegadores web

Existe una lista detallada de navegadores, motores de renderización y otros temas asociados en la categoría asociada.


Internet Explorer y derivados:



G-Browser

Slim Browser



Mozilla (SeaMonkey) y derivados:



Navegador web IBM para OS/2








Netscape Navigator (hasta la versión 4.xx)















Navegadores web basados en texto:





Primeros navegadores (que ya no se están desarrollando):





Spyglass Mosaic





Una página web, también conocida como página de Internet, es una fuente de información adaptada para la World Wide Web (WWW) y accesible mediante un navegador de Internet que normalmente forma parte de un sitio web. Esta información se presenta generalmente en formato HTML y puede contener hiperenlaces a otras páginas web, constituyendo la red enlazada de la World Wide Web.

Las páginas web pueden ser cargadas de un ordenador o computador local o remoto, llamado Servidor Web, el cual servirá de HOST. El servidor web puede restringir las páginas a una red privada, por ejemplo, una intranet, o puede publicar las páginas en el World Wide Web. Las páginas web son solicitadas y transferidas de los servidores usando el Protocolo de Transferencia de Hipertexto (HTTP - Hypertext Transfer Protocol). La acción del Servidor HOST de guardar la página web, se denomina "HOSTING".

Las páginas web pueden consistir en archivos de texto estático, o se pueden leer una serie de archivos con código que instruya al servidor cómo construir el HTML para cada página que es solicitada, a esto se le conoce como Página Web Dinámica.





Extensiones de archivos para páginas web

Las páginas estáticas generalmente usan la extensión de archivo.htm o.html. Las páginas dinámicas usan extensiones que generalmente reflejan el lenguaje o tecnología que se utilizó para crear el código, como.php (PHP),.jsp (JavaServer), etc. En estos casos, el servidor debe estar configurado para esperar y entender estas tecnologías.

Las páginas web generalmente incluyen instrucciones para el tamaño y el color del texto y el fondo, así como hipervínculos a imágenes y algunas veces otro tipo de archivos multimedia.

La estructura tipográfica y el esquema de color es definida por instrucciones de Hojas de Estilo (CSS-Cascading Style Sheet), que pueden estar adjuntas al HTML o pueden estar en un archivo por separado, al que se hace referencia desde el HTML.

Las imágenes son almacenadas en el servidor web como archivos separados.

Multimedia

Otros archivos multimedia como sonido o video pueden ser incluidos también en las páginas web, como parte de la página o mediante hipervínculos. Juegos y animaciones también pueden ser adjuntados a la página mediante tecnologías como Adobe Flash y Java. Este tipo de material depende de la capacidad del navegador para manejarlo y que el usuario permita su visualización.

Comportamiento dinámico

Código del lado del cliente como JavaScript o AJAX pueden incluirse adjuntos al HTML o por separado, ligados con el código específico en el HTML. Este tipo de código necesita correr en la computadora cliente si el usuario lo permite, y puede proveer de un alto grado de interactividad entre el usuario y la página web.

Las páginas web dinámicas son aquellas que pueden acceder a bases de datos para extraer información que pueda ser presentada al visitante dependiendo de determinados criterios. Ejemplo de esto son páginas que tienen sistemas de administración de contenido o CMS. Estos sistemas permiten cambiar el contenido de la página web sin tener que utilizar un programa de ftp para subir los cambios.

Existen diversos lenguajes de programación que permiten agregar dinamismo a una página web, el más reciente es AJAX, también está el caso de ASP, PHP, JSP, entre otros.




NAVEGADORES




Un navegador web puede tener una interfaz gráfica de usuario como Internet Explorer, Opera (navegador), Netscape Navigator, Mozilla Firefox, etc. o puede tener una Interfaz en modo texto como Lynx. Los más populares son el Internet Explorer de Microsoft y el Firefox de Mozilla.

Los usuarios con navegadores gráficos pueden deshabilitar la visualización de imágenes y otros contenidos multimedia, para ahorrar tiempo, ancho de banda o simplemente para simplificar su navegación. También se puede descartar la información de fuentes, tamaños, estilos y esquemas de colores de las páginas web y aplicar sus propias CSS estilizándola a su gusto.

El Consorcio World Wide Web (W3C) y la Iniciativa de Accesibilidad Web (WAI) recomiendan que todas las páginas deben ser diseñadas tomando en cuenta todas estas consideraciones.

Elementos de una página web

Una página web tiene contenido que puede ser visto o escuchado por el usuario final. Estos elementos incluyen, pero no exclusivamente:

Texto. El texto editable se muestra en pantalla con alguna de las fuentes que el usuario tiene instaladas

Imágenes. Son ficheros enlazados desde el fichero de la página propiamente dicho. Se puede hablar de tres formatos casi exclusivamente: GIF, JPG y PNG. Hablamos en detalle de este tema en la sección de Gráficos para la Web.

Audio, generalmente en MIDI, WAV y MP3.



Gráficas Vectoriales (SVG - Scalable Vector Graphics).


La página web también puede traer contenido que es interpretado de forma diferente dependiendo del navegador y generalmente no es mostrado al usuario final. Estos elementos incluyen, pero no exclusivamente:

Scripts, generalmente JavaScript.


Hojas de Estilo (CSS - Cascading Style Sheets).




Cuando las páginas web son almacenadas en un directorio común de un servidor web, se convierten en un website. El website generalmente contiene un grupo de páginas web que están ligadas entre sí. La página más importante que hay que almacenar en el servidor es la página de índice (index). Cuando un navegador visita la página de inicio (homepage) de un website o algún URL apunta a un directorio en vez de a un archivo específico, el servidor web mostrara la página de índice.

Cuando se crea una página web, es importante asegurarse que cumple con los estándares del Consorcio World Wide Web (W3C) para el HTML, CSS, XML, etc. Los estándares aseguran que todos los navegadores mostrarán información idéntica sin ninguna consideración especial. Una página propiamente codificada será accesible para diferentes navegadores, ya sean nuevos o antiguos, resoluciones, así como para usuarios con incapacidades auditivas y visuales.

Crear una página web

Para crear una página web, es necesario un editor de texto o un editor de HTML. Para cargar la información al servidor generalmente se utiliza un cliente FTP.

El diseño de una página web es completamente personal. El diseño se puede hacer de acuerdo a las preferencias personales o se puede utilizar una plantilla (template). Mucha gente publica sus propias páginas web usando sitios como GeoCities de Yahoo, Tripod o Angelfire. Éstos sitios ofrecen hospedaje gratuito a cambio de un espacio limitado y publicidad.

El diseño de una página web puede cumplir una serie de requisitos para que pueda ser accesible por cualquier persona independientemente de sus limitaciones físicas o de su entorno. Es lo que llamamos accesibilidad web. Normalmente viene recogidas en normativas, en España UNE:139803, que hacen referencia a las Pautas de Accesibilidad del Contenido Web 1.0 WCAG, desarrolladas por el W3C.







PORTAL (WED)




Un portal de Internet es un sitio web cuyo objetivo es ofrecer al usuario, de forma fácil e integrada, el acceso a una serie de recursos y de servicios, entre los que suelen encontrarse buscadores, foros, documentos, aplicaciones, compra electrónica, etc. Principalmente están dirigidos a resolver necesidades específicas de un grupo de personas o de acceso a la información y servicios de una institución pública o privada.





FUNCIONES Y OBJETIVOS




El término portal tiene como significado puerta grande, y precisamente su nombre hace referencia a su función u objetivo: es, por lo general, el punto de partida de un usuario que desea entrar y realizar búsquedas en la web u obtener información importante de él. Se puede decir que un portal ofrece servicios para la navegación en el internet, logrando incrementar la intensidad de tráfico en el mismo.

Un portal de Internet puede ser un Centro de contenido intermediario entre compradores y vendedores de rubros específicos, estos se pueden complementar con herramientas que le ayuden a identificar empresas que satisfagan necesidades de un comprador,visualizar anuncios de vendedores, ofrecer cotizaciones, brindar correos electrónicos, motores de búsqueda, etc.

El portal es considerado un intermediario de información que tiene como fuente de ingreso la publicidad de empresas que ahí se anuncian.




SERVICIOS ADICIONALES




Un portal opcionalmente podría ofrecer:

Servicios de búsqueda que incluye mecanismos de búsqueda, directorios y páginas amarillas para localizar negocios o servicios.

Contenidos. Es decir, información de varios temas como noticias, deportes, pronósticos de clima, listas de eventos locales, mapas, opciones de entretenimiento, juegos, ligas a estaciones de radio y a otros sitios con contenido especial en ciertas áreas de interés como coches, viajes y salud entre otros.

Facilidades de comercialización: anuncios clasificados para trabajos, coches y casas; subastas, pequeños agregados de vendedores y ligas a otros sitios que también se dedican a la venta.




MOTOR DE BÚSQUEDA




Un motor de búsqueda es un sistema informático que indexa archivos almacenados en servidores web. Un ejemplo son los buscadores de Internet (algunos buscan sólo en la Web pero otros buscan además en noticias, servicios como Gopher, FTP, etc.) cuando se pide información sobre algún tema. Las búsquedas se hacen con palabras clave o con árboles jerárquicos por temas; el resultado de la búsqueda es un listado de direcciones Web en los que se mencionan temas relacionados con las palabras clave buscadas. Se pueden clasificar en dos tipos:

Índices temáticos: Son sistemas de búsqueda por temas o categorías jerarquizados (aunque también suelen incluir sistemas de búsqueda por palabras clave). Se trata de bases de datos de direcciones Web elaboradas "manualmente", es decir, hay personas que se encargan de asignar cada página web a una categoría o tema determinado.

Motores de búsqueda: Son sistemas de búsqueda por palabras clave. Son bases de datos que incorporan automáticamente páginas web mediante "robots" de búsqueda en la red.

Como operan en forma automática, los motores de búsqueda contienen generalmente más información que los directorios. Sin embargo, estos últimos también han de construirse a partir de búsquedas (no automatizadas) o bien a partir de avisos dados por los creadores de páginas (lo cual puede ser muy limitante). Los buenos directorios combinan ambos sistemas.

Hoy en día el Internet se ha convertido en una herramienta, para la búsqueda de información, rápida, para ello han surgido los buscadores que son un motor de búsqueda que nos facilita encontrar información rápida de cualquier tema de interés, en cualquier área de las ciencias, y de cualquier parte del mundo.








CLASES DE BUSCADORES




Buscadores jerárquicos (Arañas o Spiders)

La mayoría de grandes buscadores internacionales de uso habitual y conocidos son de este tipo. Requieren muchos recursos para su funcionamiento. No están al alcance de cualquiera.

Recorren las páginas recopilando información sobre los contenidos de las páginas. Cuando se busca una información en los motores, ellos consultan su base de datos y presentan resultados clasificados por su relevancia. De las webs, los buscadores pueden almacenar desde la página de entrada, a todas las páginas que residan en el servidor.

Si se busca una palabra, por ejemplo, “ordenadores”. En los resultados que ofrecerá el motor de búsqueda, aparecerán páginas que contengan esta palabra en alguna parte de su texto.

Si consideran que un sitio web es importante para el usuario, tienden a registrarlas todas. Si no la consideran importante, sólo almacenan una o más páginas.

Cada cierto tiempo, los motores revisan los sitios, para actualizar los contenidos de su base de datos, por lo que no es infrecuente que los resultados de la búsqueda estén desactualizados.

Los buscadores jerárquicos tienen una colección de programas simples y potentes con diferentes cometidos. Se suelen dividir en tres partes. Los programas que exploran la red -arañas (spiders)-, los que construyen la base de datos y los que utiliza el usuario, el programa que explota la base de datos.

Si se paga, se puede aparecer en las primeras páginas de resultados, aunque los principales buscadores delimitan estos resultados e indican al usuario que se trata de resultados esponsorizados o patrocinados. Hasta el momento, aparentemente, esta forma de publicidad, es indicada explícitamente. Los buscadores jerárquicos se han visto obligados a este tipo de publicidad para poder seguir ofreciendo a los usuarios el servicio de forma gratuita.


Mixtos Buscador - Directorio

Además de tener características de buscadores, presentan los sitios web registrados en catálogos sobre contenidos, por ejemplo informática, cultura, sociedad y a su vez se dividen en subsecciones. Un ejemplo es Yahoo, exite o iSearch.




BUSCADORES DE PORTAL




Bajo este título se engloban los buscadores específicos de sitio, aquellos que buscan información solo en su portal o sitio web, y podrían ser considerados como un directorio. http://www.eurohispano.org


Buscadores especializados en un sector concreto, lo que les permite analizar la información con mayor profundidad, disponer de resultados más actualizados y ofrecer al usuario herramientas de búsqueda avanzadas.Es importante resaltar que utilizan indices especializados de esta manera acceder a la información de una manera más específica y fácil. (Nélida Colina). Ejemplos de este tipo de buscadores en España son: Trovit y nestoria.




HISTORIA




El primer buscador fue "Wandex", un índice (ahora desaparecido) realizado por la World Wide Web Wanderer, un robot desarrollado por Mattew Gray en el MIT, en 1993. Otro de los primeros buscadores, Aliweb, también apareció en 1993 y todavía está en funcionamiento. El primer motor de búsqueda de texto completo fue WebCrawler, que apareció en 1994. A diferencia de sus predecesores, éste permitía a sus usuarios una búsqueda por palabras en cualquier página web, lo que llegó a ser un estándar para la gran mayoría de los buscadores. WebCrawler fue también el primero darse a conocer ampliamente por el público. También apareció en 1994 Lycos (que comenzó en la Carnegie Mellon University).


Muy pronto aparecieron muchos más buscadores, como Excite, Infoseek, Inktomi, Northern Light y Altavista. De algún modo, competían con directorios (o índices temáticos) populares tales como Yahoo!. Más tarde, los directorios se integraron o se añadieron a la tecnología de los buscadores para aumentar su funcionalidad.

Antes del advenimiento de la Web, había motores de búsqueda para otros protocolos o usos, como el buscador Archie, para sitios FTP anónimos y el motor de búsqueda Verónica, para el protocolo Gopher.

En la actualidad se aprecia una tendencia por parte de los principales buscadores de internet a dar el salto hacia entornos móviles creando una nueva generación de buscadores: los buscadores móviles








Alrededor de 2001, el buscador Google adquirió prominencia. Su éxito esta basado en parte en el concepto de popularidad basado en PageRank, bajo la premisa de que las páginas más deseadas eran más enlazadas por otras páginas que el resto. Esta idea permitió a Google disponer las páginas de una determinada búsqueda en función de su importancia, basada en este algoritmo, esto es, las páginas más enlazadas por otras páginas se mostraban en primer lugar. La interfaz minimalista de Google se hizo muy popular entre los usuarios y desde entonces ha tenido un gran número de imitadores

Google y muchos otros buscadores no sólo usaban PageRank, sino más de 150 criterios para determinar la pertinencia de una página.








El buscador Visual Finder, patentado y de origen español, es un buscador de portal (in-portal search) que ofrece una serie de beneficios diferenciales frente a los buscadores de portal tradicionales, como los combos o desplegables y los buscadores de texto.

Con un diseño caractarístico, Visual Finder ofrece entre otras ventajas: - Disminuye los clicks necesarios, hasta 8 veces menos que con desplegables - Las búsquedas AND y OR se hacen sencillas e intuitivas, sin traducciones Booleanas - Se evita la navegación ciega, selecciones erróneas, demasiado amplias o estrechas - Permite descubrir información antes oculta, maximizando la explotación de la BBDD - Facilita la comparación - Refina las búsquedas dinámicamente, sin esfuerzo - Incrementa la relevancia natural en los buscadores, comportándose como un proyecto SEO (Search Engine Optimization)

Todo lo anterior equivale a dotar a los portales de una experiencia de navegación muy satisfactoria que fomenta mejores índices de actividad en el portal (captación, visitas, páginas vistas, fidelidad), mejores ratios de conversión (comercio electrónico, consultas,..)








Trovit es un buscador vertical de anuncios clasificados para los sectores de empleo, coches y vivienda. Trovit está presente en doce países de Europa y Latino-américa.








El motor de búsqueda corporativo de Exalead, también cuenta con una versión de búsqueda para internet. Cuenta con un potente buscador desktop para usuarios que permite indexar un número ilimitado de documentos, permitiendo buscar en más de 100 tipos de archivos, incluyendo emails, adjuntos a emails, documentos de oficina, PDFs, imágenes, archivos de audio, vídeo clips y más.





Las características de Exalead incluyen:




Búsqueda de la proximidad que apoya al operador NEAR Expresiones jerarquizadas de la búsqueda. Consejos. Búsqueda específica: por localización geográfica. por lengua. por el tipo del archivo. Sugerencias de palabras adicionales. La búsqueda fonética está también disponible, pudiendo ser utilizada cuando se desconoce la ortografía Búsqueda dentro de los resultados. Audio, vídeo y búsqueda de RSS (en de la inspección previa también imágenes). Exalead permite búsqueda con expresiones regulares y se pueden utilizar para solucionar crucigramas y utilizar en algoritmos IR.








Buscador Italiano que sirve para buscar también en español. Potente y con un interfaz agradable.








En 2004, Yahoo! lanzó su propio buscador basado en una combinación de tecnologías de sus adquisiciones y proporcionando un servicio en el que ya prevalecía la búsqueda en Webs sobre el directorio.








El más reciente de los grandes buscadores es Live (antes MSN Search), de Microsoft, que previamente dependía de otros para listar sus búsquedas. En 2004 debutó una versión beta con sus propios resultados, impulsada por su propio robot (llamado msnbot). Al principio de 2005 comenzó la versión definitiva.

El mercado está ahora dominado por Google, Yahoo y Microsoft. El resto de grandes buscadores tienden a ser portales que muestran los resultados de otros buscadores y ofrecen, además, otro tipo de contenidos que tienen mayor o menor importancia en la página como hace el propio Yahoo!








Noxtrum fue el primer motor de búsqueda global diseñado por una empresa española, Telefónica Publicidad e Información, S. A. (TPI), lanzado al mercado en versión Beta el 1 de diciembre de 2005. Realizaba búsquedas en internet del mundo hispanohablante.

Noxtrum partía de la implementación de FAST para construir su propio motor de búsqueda, con lo que realmente no contaba con tecnología de búsqueda propia, sino que adaptaba al español la tecnología usada en su día por navegadores como AllTheWeb, hoy propiedad de

Yahoo.




El 3 de abril de 2008 el buscador dejó de estar operativo, después de que Yell lo adquiriera junto con Páginas Amarillas y reestructurara su cúpula directiva.

Actualmente ya no existe. Cerró sus puertas.








Es un buscador no muy completo pero sirve para diversas búsquedas, sus páginas la mayoría son en inglés, a menos que la búsqueda se especifique en español, es un buscador donde se pueden encontrar varias páginas donde esté la información buscada, cuenta con enlaces directos a las páginas de interés donde localizar lo que se busca; es efectivo para búsquedas precisas.








Ask es un buscador donde se puede preguntar (como dice su nombre en inglés "ask" es preguntar) por lo que se busque, ya sea la respuesta a una duda o simplemete encontrar algún archivo en concreto.








Potente buscador vertical de inmuebles basado en la tecnología de heritrix, posee la peculiaridad de transformar las consultas a lenguaje natural.


Cuásar es un motor de búsqueda de desarrollo completamente español, inteligente y modular. Su primera aplicación práctica es Cunoticias: ,buscador de noticias de actualidad.








Isearch es un motor de búsqueda desarrolado en Guatemala, pertenece a la página Istart http://www.istart.gt.tf , y es un directorio con un motor de búsqueda incorporado, basado en Google. Desarrollado por CSL.








MiraQuePueblos es un motor de búsqueda desarrolado en España y adaptado a varios idiomas que permite realizar busquedas de cualquier pueblo de España http://miraquepueblos.com, usa los servicios de Lirondo.

No hay comentarios: