fbpx
Wikipedia

Internet profunda

Internet profunda[1]​ (del inglés, deep web), internet invisible[2]​ o internet oculta[3]​ es el contenido de internet que no está indexado por los motores de búsqueda convencionales, debido a diversos factores.[4]​ El término se atribuye al informático Mike Bergman.[5]

Cifrado de la Internet profunda

Origen

La principal causa de la existencia de la internet profunda es la imposibilidad de los motores de búsqueda (ejemplo: Google, Yahoo y Bing, y otros) de encontrar o indexar gran parte de la información existente en Internet. Si los buscadores tuvieran la capacidad para acceder a toda la información entonces la magnitud de la «internet profunda» se reduciría casi en su totalidad. No obstante, aunque los motores de búsqueda pudieran indexar la información de la internet profunda esto no significaría que esta dejara de existir, ya que siempre existirán las páginas privadas. Los motores de búsqueda no pueden acceder a la información de estas páginas y solo determinados usuarios, aquellos con contraseñas o códigos especiales, pueden hacerlo.

En la Deep Web pueden establecerse contactos que no son monitoreados, nadie está allí observando. Además las transferencias tanto de mercancía como de pagos son prácticamente imposibles de rastrear. La web está dividida en dos partes, la web superficial y la web profunda. Esta última es la que se conoce como Deep Web, donde se ubica todo contenido que no es indexable por los buscadores, o al que los usuarios no pueden acceder mediante un buscador web como DuckDuckGo, Startpage, Yandex, Ecosia, Yahoo!, Google o Bing.

La internet profunda no es una región prohibida o mística de internet ni la tecnología relacionada con ella es necesariamente conspirativa, peligrosa o ilegal. En ella se alberga todo tipo de recursos a los que es difícil de acceder mediante métodos comunes como los motores de búsqueda populares.

Una parte de la "internet profunda" consiste en redes internas de instituciones científicas y académicas que forman la denominada Academic Invisible Web: («Internet académica invisible»), la cual se refiere a las bases de datos que contienen avances tecnológicos, publicaciones científicas y material académico en general a los cuales no se pueden acceder fácilmente.[6]

Tamaño

La internet profunda es un conjunto de sitios web y bases de datos que buscadores comunes no pueden encontrar ya que no están indexadas. El contenido que se puede hallar dentro de la internet profunda es muy amplio.[7]

El internet se ve dividido en dos ramas, la internet profunda y la superficial. La internet superficial se compone de páginas indexadas en servidores DNS con una alfabetización y codificación de página perfectamente entendible por los motores de búsqueda, mientras que la internet profunda está compuesta de páginas cuyos dominios están registrados con extensiones .onion y los nombres de los dominios están codificados en una trama hash. Estas páginas se sirven de forma ad hoc, y no necesitan registrarse, basta con que tu ordenador tenga funcionando un servicio onion, que hará las veces de un servicio dns, pero especial para las páginas del internet profundo. Mediante una red P2P, se replican las bases de datos que contienen la resolución de nombres hash.

Mientras que las páginas normales son identificadas mediante el protocolo UDP/IP, las páginas .onion son repetidas por el ramal al que se ha conectado el navegador especializado para tal sistema de navegación segura. El sistema de búsqueda es el mismo que usa BitTorrent. El contenido se coloca en una base de datos y se proporciona solamente cuando lo solicite el usuario.[8]

En 2010 se estimó que la información que se encuentra en la internet profunda es de 7500 terabytes, lo que equivale a aproximadamente 550 billones de documentos individuales. En comparación, se estima que la internet superficial contiene solo 19 terabytes de contenido y un billón de documentos individuales.

También en 2010 se estimó que existían más de 200 000 sitios en la internet profunda.[9]

Estimaciones basadas en la extrapolación de un estudio de la Universidad de California en Berkeley especula que actualmente la internet profunda debe tener unos 91 000 terabytes.[10]

La Association for Computing Machinery (ACM) publicó en 2007 que Google y Yahoo indexaban el 32 % de los objetos de la internet profunda, y MSN tenía la cobertura más pequeña con el 11 %. Sin embargo, la cobertura de los tres motores era de 37 %, lo que indicaba que estaban indexando casi los mismos objetos.[11]

Motivos

Motivos por los que los motores de búsqueda no pueden indexar algunas páginas:

  • Documentos o información oculta: Archivos pdf que no se encuentran en las páginas indexadas, listas de datos no públicas (sobre todo los ciber-criminales).
  • Web contextual: páginas cuyo contenido varía dependiendo del contexto (por ejemplo, la dirección IP del cliente, de las visitas anteriores, etc).
  • Contenido dinámico: páginas dinámicas obtenidas como respuesta a parámetros, por ejemplo, datos enviados a través de un formulario.
  • Contenido de acceso restringido: páginas protegidas con contraseña, contenido protegido por un Captcha, etc.
  • Contenido no HTML: contenido textual en archivos multimedia, otras extensiones como exe, rar, zip, etc.
  • Software: Contenido oculto intencionadamente, que requiere un programa o protocolo específico para poder acceder (ejemplos: Tor, I2P, Freenet)
  • Páginas no enlazadas: páginas de cuya existencia no tienen referencia los buscadores; por ejemplo, páginas que no tienen enlaces desde otras páginas.

Denominación

La Web profunda se refiere a la colección de sitios o bases de datos que un buscador común, como Google o Bing no pueden o no quieren indexar. Es un lugar específico del internet que se distingue por el anonimato. Nada que se haga en esta zona puede ser asociado con la identidad de uno, a menos que uno lo desee.[12]

Bergman, en un artículo semanal sobre la Web profunda publicado en el Journal of Electronic Publishing, mencionó que Jill Ellsworth utilizó el término «Web invisible» en 1994 para referirse a los sitios web que no están registrados por ningún motor de búsqueda.[13]

En su artículo, Bergman citó la entrevista que Frank García hizo a Ellsworth en 1996:[14]

Sería un sitio que, posiblemente, esté diseñado razonablemente, pero no se molestaron en registrarlo en alguno de los motores de búsqueda. ¡Por lo tanto, nadie puede encontrarlos! Estás oculto. Yo llamo a esto la Web invisible.

Otro uso temprano del término Web Invisible o web profunda fue por Bruce Monte y Mateo B. Koll de Personal Library Software, en una descripción de la herramienta @ 1 de web profunda, en un comunicado de prensa de diciembre de 1996.[15]

La importancia potencial de las bases de datos de búsqueda también se reflejó en el primer sitio de búsqueda dedicado a ellos, el motor AT1 que se anunció a bombo y platillo a principios de 1997. Sin embargo, PLS, propietario de AT1, fue adquirida por AOL en 1998, y poco después el servicio AT1 fue abandonado.[13]

El primer uso del término específico de web profunda, ahora generalmente aceptada, ocurrió en el estudio de Bergman de 2001 mencionado anteriormente.

Por otra parte, el término web invisible se dice que es inexacto porque:

  • Muchos usuarios asumen que la única forma de acceder a la web es consultando un buscador.
  • Alguna información puede ser encontrada más fácilmente que otra, pero esto no quiere decir que esté invisible.
  • La web contiene información de diversos tipos que es almacenada y recuperada en diferentes formas.
  • El contenido indexado por los buscadores de la web es almacenado también en bases de datos y disponible solamente a través de las peticiones o consultas del usuario, por tanto no es correcto decir que la información almacenada en bases de datos es invisible.[16]

Internet académica invisible

Se denomina Internet Académica Invisible o Academic Invisible Web (AIW) al conjunto de bases de datos y colecciones relevantes para la academia, o con fines académicos, que no es posible ser buscado por los motores de búsqueda convencionales.[6]​ La preocupación sobre este tema radica en que millones de documentos permanecen invisibles frente a los ojos de los usuarios convencionales. Dentro de estos documentos se pueden encontrar artículos, libros, reportes, documentos de acceso abierto, datos de encuestas, entre otros. El problema con los motores de búsqueda convencionales es que no muestran aquellos datos que cambian constantemente, como información climática o imágenes satelitales y dicha información, al cambiar de manera tan rápida es imposible de ser indexada por lo que restringe su aparición en los motores de búsqueda convencionales.[17]

Una aproximación al indexamiento y apertura de la Internet académica invisible son los motores de búsqueda que se centran en información académica, como Google Scholar o Scirus. El problema de estos motores de búsqueda mencionados anteriormente es que fueron creados por compañías comerciales. El portal de ciencia Vascoda ha demostrado ser la alternativa más efectiva para eliminar el espacio entre la Internet académica visible e invisible ya que integra bases de datos de literatura, colecciones de librerías y demás contenido académico mediante un indexamiento basado en el uso de las etiquetas de cada uno de los dominios que albergan dicha información.[6]

Cabe resaltar que no toda la ausencia de esta información en la Internet Visible se debe a los motores de búsqueda, otro de estos factores se debe a que algunos de estos documentos son propiedad de editoriales de base de datos.

Tamaño de la Internet académica invisible.

El intento más acertado por realizar una medición de la cantidad de documentos académicos presentes en la web invisible fue realizado por Bergman en 2001 en su estudio The Deep Web: Surfacing Hideen Value.[17]​ En dicha investigación Bergman realizó un listado de los 60 sitios académicos más largos de la Deep Web entre los que se encontraba el National Climatic Data Center (NOAA), NASA EOSDIS, National Oceanographic (combined with Geophysical) Data Center (NOAA), entre otras.

Los sesenta sitios de la Deep Web más grandes[17]
Nombre Tipo Tamaño (GBs)
National Climatic Data Center (NOAA) Público 366,000
NASA EOSDIS Público 219,600
National Oceanographic (combined with Geophysical) Data Center (NOAA) Público/Pago 32,940
DBT Online Pago 30,500
Alexa Público (parcial) 15,860
Right-to-Know Network (RTK Net) Público 14,640
Lexis-Nexis Pago 12,200
Dialog Pago 10,980
Genealogy - ancestry.com Pago 6,500
MP3.com Público 4,300
Terraserver Público/Pago 4,270
ProQuest Direct (incl. Digital Vault) Pago 3,172
Dun & Bradstreet Pago 3,113
Westlaw Pago 2,684
Dow Jones News Retrieval Pago 2,684
HEASARC (High Energy Astrophysics Science Archive Research Center) Público 2,562
US PTO - Trademarks + Patents Público 2,440
Informedia (Carnegie Mellon Univ.) Público 1,830
infoUSA Pago/Público 1,584
Alexandria Digital Library Público 1,220
JSTOR Project Limitado 1,220
10K Search Wizard Público 769
UC Berkeley Digital Library Project Público 766
SEC Edgar Público 610
US Census Público 610
Elsevier Press Pago 570
NCI CancerNet Database Público 488
EBSCO Pago 481
Amazon.com Público 461
IBM Patent Center Público/Privado 345
NASA Image Exchange Público 337
Springer-Verlag Pago 221
InfoUSA.com Público/Privado 195
OVID Technologies Pago 191
Investext Pago 157
Blackwell Science Pago 146
Betterwhois (muchos similares) Público 152
GPO Access Público 146
Adobe PDF Search Público 143
Internet Auction List Público 130
Commerce, Inc. Público 122
Library of Congress Online Catalog Público 116
GenServ Pago 106
Academic Press IDEAL Pago 104
Sunsite Europe Público 98
Uncover Periodical DB Público/Pago 97
Astronomer's Bazaar Público 94
eBay.com Público 82
Tradecompass Pago 61
REALTOR.com Real Estate Search Público 60
Federal Express Público 53
Integrum Público/Privado 49
NIH PubMed Público 41
Visual Woman (NIH) Público 40
AutoTrader.com Público 39
UPS Público 33
NIH GenBank Público 31
AustLi (Australasian Legal Information Institute) Público 24
Digital Library Program (UVa) Público 21
INSPEC Pago 16
Subtotal fuentes públicas y mixtas 673,035
Subtotal fuentes pagas 75.469
TOTAL 748,504

El problema con dicha medición es que se realizó por el tamaño de la página (en GB) mas no por la cantidad de artículos publicados. No obstante dicha cantidad expresaba que se albergaba más de 700TB (o 700000GB) de información que no está expuesta en la Internet superficial.

Esta información es complementada por Lewandosky adicionando datos de la Gale Directory of Databases los cuales fueron comparados con los datos de Bergman.[6]​ En dicho directorio se aproximó que existe un total de 18.92 billones de documentos académicos en total.

Rastreando la internet profunda

 
Infografía sobre la deep web

Los motores de búsqueda comerciales han comenzado a explorar métodos alternativos para rastrear la Web profunda. El Protocolo del sitio (primero desarrollado e introducido por Google en 2005) y OAI son mecanismos que permiten a los motores de búsqueda y otras partes interesadas descubrir recursos de la internet profunda en los servidores web en particular. Ambos mecanismos permiten que los servidores web anuncien las direcciones URL que se puede acceder a ellos, lo que permite la detección automática de los recursos que no están directamente vinculados a la Web de la superficie. El sistema de búsqueda de la Web profunda de Google pre-calcula las entregas de cada formulario HTML y agrega a las páginas HTML resultantes en el índice del motor de búsqueda de Google. Los resultados surgidos arrojaron mil consultas por segundo al contenido de la Web profunda.[18]​ Este sistema se realiza utilizando tres algoritmos claves:

  • La selección de valores de entrada, para que las entradas de búsqueda de texto acepten palabras clave.
  • La identificación de los insumos que aceptan solo valores específicos (por ejemplo, fecha).
  • La selección de un pequeño número de combinaciones de entrada que generan URLs adecuadas para su inclusión en el índice de búsqueda Web.

Métodos de profundización

Las arañas (web crawlers)

Cuando se ingresa a un buscador y se realiza una consulta, el buscador no recorre la totalidad de internet en busca de las posibles respuestas, sino que busca en su propia base de datos, que ha sido generada e indexada previamente. Se utiliza el término «araña web» (en inglés web crawler) o robots (por software, comúnmente llamados "bots") inteligentes que van haciendo búsquedas por enlaces de hipertexto de página en página, registrando la información ahí disponible.[19]

Cuando una persona realiza una consulta, el buscador no recorre la totalidad de internet en busca de las posibles respuestas, lo cual supondría una capacidad de reacción bastante lenta. Lo que hace es buscar en su propia base de datos, que ha sido generada e indizada previamente. En sus labores de búsqueda, indización y catalogación, utilizan las llamadas arañas (o robots inteligentes) que van saltando de una página web a otra siguiendo los enlaces de hipertexto y registran la información allí disponible.
[...] datos que se generan en tiempo real, como pueden ser valores de Bolsa, información del tiempo, horarios de trenes.

El contenido que existe dentro de la internet profunda es en muy raras ocasiones mostrado como resultado en los motores de búsqueda, ya que las «arañas» no rastrean bases de datos ni los extraen. Las arañas no pueden tener acceso a páginas protegidas con contraseñas, algunos desarrolladores que no desean que sus páginas sean encontradas insertan etiquetas especiales en el código para evitar que sea indexada. Las «arañas» son incapaces de mostrar páginas que no estén creadas en lenguaje HTML, ni tampoco puede leer enlaces que incluyen un signo de interrogación. Pero ahora sitios web no creados con HTML o con signos de interrogación están siendo indexados por algunos motores de búsqueda. Sin embargo, se calcula que incluso con estos buscadores más avanzados solo se logra alcanzar el 16 % de la información disponible en la internet profunda. Existen diferentes técnicas de búsqueda para extraer contenido de la internet profunda como librerías de bases de datos o simplemente conocer el URL al que quieres acceder y escribirlo manualmente.[20]

Tor

 
Logo de Tor

The Onion Router (abreviado como TOR) es un proyecto diseñado e implementado por la marina de los Estados Unidos lanzado el 20 de septiembre de 2002. Posteriormente fue patrocinado por la EFF (Electronic Frontier Foundation, una organización en defensa de los derechos digitales). Al presente (2019), subsiste como The Tor Project, una organización sin ánimo de lucro galardonada en 2011 por la Free Software Foundation por permitir que millones de personas en el mundo tengan libertad de acceso y expresión en internet manteniendo su privacidad y anonimato.[21]

A diferencia de los navegadores de internet convencionales, Tor le permite a los usuarios navegar por la Web de forma anónima. Tor es descargado de 30 millones a 50 millones de veces al año, hay 0,8 millones de usuarios diarios de Tor y un incremento del 20 % solamente en 2013. Tor puede acceder a unos 6 500 sitios web ocultos.[22]

Cuando se ejecuta el software de Tor, para acceder a la internet profunda, los datos de la computadora se cifran en capas. El software envía los datos a través de una red de enlaces a otros equipos ―llamados en inglés «relays» (‘nodos’)― y lo va retransmitiendo quitando una capa antes de retransmitirlo de nuevo, esta trayectoria cambia con frecuencia. Tor cuenta con más de 4 000 retransmisiones y todos los datos cifrados pasan a través de ―por lo menos― tres de estos relays. Una vez que la última capa de cifrado es retirado por un nodo de salida, se conecta a la página web que desea visitar.

El contenido que puede ser encontrado dentro de la internet profunda es muy vasto, se encuentran por ejemplo, datos que se generan en tiempo real, como pueden ser valores de Bolsa, información del tiempo, horarios de trenes, bases de datos sobre agencias de inteligencia, disidentes políticos y contenidos criminales.[19]

Criptomoneda

 
Logo de Bitcoin, una criptomoneda

Es posible encontrar sitios web que realicen transacciones ilegales (como drogas, armas, o incluso sicarios) en servidores exclusivos para usuarios de Tor. Es una práctica común utilizar monedas digitales como el Bitcoin[21]​ que se intercambia a través de billeteras digitales entre el usuario y el vendedor, lo que hace que sea prácticamente imposible de rastrear.[23]

Vale la pena acotar que salvo por excepciones de algunos mercados como Silk Road, The Trade Route, o Wall Street Market, la mayor parte del comercio en la deep web se constituye a base de ofertas engañosas y fraudes en general, existe una gran tendencia a satanizar a comunidades que buscan la libertad de expresión y el anonimato, en el mundo hispano-hablante esta tendencia fue originada por blogueros y youtubers que lejos de informar a las comunidades buscan crear escándalos amarillistas para obtener ingresos por conceptos de publicidad de sistemas como Adsense. En los últimos años se ha demostrado que el Bitcoin no es una criptomoneda segura cuando se trata de la confidencialidad de los datos de sus usuarios, motivo por el cual tendría poco sentido utilizarla en redes de anonimato como Tor, Freenet, o I2P, cuyos usuarios intentan alcanzar el clímax del anonimato, por lo cual no se puede descartar tampoco la intervención de empresas propagandistas que intentan aumentar el valor de mercado del bitcoin.

Recursos de la internet profunda

Los recursos de la internet profunda pueden estar clasificados en las siguientes categorías:

  • Contenido de acceso limitado: los sitios que limitan el acceso a sus páginas de una manera técnica (Por ejemplo, utilizando el estándar de exclusión de robots o captcha, que prohíben los motores de búsqueda de la navegación por y la creación de copias en caché.[24]
  • Contenido dinámico: las páginas dinámicas que devuelven respuesta a una pregunta presentada o acceder a través de un formulario, especialmente si se utilizan elementos de entrada en el dominio abierto como campos de texto.
  • Contenido no enlazado: páginas que no están conectadas con otras páginas, que pueden impedir que los programas de rastreo web tengan acceso al contenido. Este material se conoce como páginas sin enlaces entrantes.
  • Contenido programado: páginas que solo son accesibles a través de enlaces producidos por JavaScript, así como el contenido descargado de manera dinámica a partir de los servidores web a través de soluciones de Flash o Ajax.
  • Sin contenido HTML: contenido textual codificado en multimedia (imagen o video) archivos o formatos de archivo específicos no tratados por los motores de búsqueda.
  • Web privada: los sitios que requieren de registro y de una contraseña para iniciar sesión
  • Web contextual: páginas con contenidos diferentes para diferentes contextos de acceso (por ejemplo, los rangos de direcciones IP de clientes o secuencia de navegación anterior).

Véase también

Referencias

  1. «internet profunda, mejor que Deep Web.» («Aunque es posible emplear tanto el masculino como el femenino, la forma femenina es la que de hecho está más extendida con gran diferencia.»). Fundeu. Consultado el30 de marzo de 2016.
  2. Devine, Jane; Egger-Sider, Francine (julio de 2004). «Beyond google: the invisible web in the academic library». The Journal of Academic Librarianship 30 (4): 265-269. doi:10.1016/j.acalib.2004.04.010. Consultado el 6 de febrero de 2014. 
  3. Raghavan, Sriram; Garcia-Molina, Hector (11-14 de septiembre de 2001). «Crawling the Hidden Web». 27th International Conference on Very Large Data Bases (Roma, Italia). 
  4. «'Deep web': guía básica para saber qué es y cómo se usa». El País. 2016. Consultado el 2017. 
  5. Wright, Alex (22 de febrero de 2009). «Exploring a 'Deep Web' That Google Can’t Grasp». The New York Times. Consultado el 23 de febrero de 2009. 
  6. Lewandowski, Exploring the academic invisible web (11 de noviembre de 2013). Library Hi Tech (en inglés). «the Academic Invisible Web (AIW). We define the Academic Invisible Web as consisting of all databases and collections relevant to academia but not searchable by the general-purpose internet search engines.» 
  7. Grossman, Lev (11 de noviembre de 2013). «The Deep Web.». Time (en inglés). Consultado el 28 de octubre de 2014. «Technically the Deep Web refers to the collection of all the websites and databases that search engines like Google don't or can't índex». 
  8. Iffat, Rabia (1 de octubre de 2010). «Understanding the Deep Web». Library Philosophy and Practice 2010 (en inglés). Consultado el 28 de octubre de 2014. «Surface Web is made up of static and fixed pages, whereas Deep Web is made up of dynamic pages. Static pages do not depend on a database for their content. They reside on a server waiting to be retrieved, and are basically html files whose content never changes.» 
  9. Iffat, Rabia (1 de octubre de 2010). «Understanding the Deep Web». Library Philosophy and Practice 2010 (en inglés). Consultado el 28 de octubre de 2014. «Public information on the Deep Web is currently 400-550 times larger than the commonly-defined World Wide Web. The Deep Web contains 7,500 terabytes of information, compared to 19 on the Surface Web. Deep Web contains nearly 550 billion individual documents compared to one billion on the Surface Web. More than 200,000 Deep Web sites presently exist.» 
  10. DeepWeb.
  11. He, Bin (1 de mayo de 2007). «Ebscohost.». Communications of the ACM (en inglés). Consultado el 29 de octubre de 2014. «Google and Yahoo both indexed 32% of the deep Web objects, and MSN had the smallest coverage of 11%. However, there was significant overlap in what they covered: the combined coverage of the three largest search engines increased only to 37%, indicating they were indexing almost the same objects.» 
  12. Grossman, Lev; Newton-Small, Roy & Stampler (noviembre de 2013). «The Deep Web». Time 182 (20). 
  13. Bergman, Michael K. «White Paper: The Deep Web: Surfacing Hidden Value» (en inglés). Consultado el 30 de octubre de 2014. 
  14. Garcia, Frank (enero de 1996). . Masthead 9 (1). Archivado desde el original el 5 de diciembre de 1996. Consultado el 24 de febrero de 2009. 
  15. @1 comenzó con 5.7 terabytes de contenido, estimado en 30 veces el tamaño de la naciente World Wide Web; PLS fue adquirida por AOL en 1998 y @1 fue abandonado.. Personal Library Software. diciembre de 1996. Archivado desde el original el 21 de octubre de 1997. Consultado el 24 de febrero de 2009. 
  16. Llanes Vilaragut, Lourdes & Suárez Carro, Juan R. . Archivado desde el original el 30 de octubre de 2014. Consultado el 30 de octubre de 2014. 
  17. Bergman, Michael K. (2001-8). «The Deep Web: Surfacing Hidden Value». Journal of Electronic Publishing 7 (1). ISSN 1080-2711. Consultado el 11 de marzo de 2019. 
  18. Madhavan, Jayant; Ko, David; Kot, Lucja; Ganapathy, Vignesh; Rasmussen, Alex & Havely, Alon. «Google’s DeepWeb Crawl» (en inglés). Consultado el 30 de octubre de 2014. 
  19. Salazar, Idoia «El inmenso océano del Internet profundo.» 20 de octubre de 2005. El País (Madrid). Consultado el 29 de octubre de 2014.
  20. Iffat, Rabia (1 de octubre de 2010). «Understanding the Deep Web». Library Philosophy and Practice 2010 (en inglés). Consultado el 28 de octubre de 2014. «The content of the Deep Web is rarely shown in a search engine result, since the search engine spiders do not crawl into databases and extract the data. These spiders can neither think nor type, but jump from link to link. As such, a spider cannot enter pages that are password protected. Web page creators who do not want their page shown in search results can insert special meta tags to keep the page from being indexed. Spiders are also unable to pages created without the use of html, and also links that include a question mark. But now parts of the Deep Web with non-html pages and databases with a question mark in a stable URL are being indexed by search engines, with non-html pages converted to html. Still, it is estimated that even the best search engines can access only 16 percent of information available on the Web. There are other Web search techniques and technologies that can be used to access databases and extract the content.» 
  21. Becerra Gutiérrez Juan Armando. «Mitos y realidades de la internet profunda». Consultado el 30 de octubre de 2014. 
  22. Grossman, Lev (11 de noviembre de 2013). «The Deep Web.». Time (en inglés). Consultado el 28 de octubre de 2014. «Unlike conventional Internet browsers, Tor's allows users to surf the Web anonymously. Tor is downloaded 30 million-50 million times a year. There are 800,000 daily Tor users―a jump of 20% in the past year. Tor can access 6,500 hidden websites.» 
  23. Grossman, Lev (11 de noviembre de 2013). «The Deep Web.». Time (en inglés). Consultado el 28 de octubre de 2014. «Bitcoin». 
  24. «Hypertext Transfer Protocol (HTTP/1.1): Caching.» (en inglés). junio de 2014. Consultado el 30 de octubre de 2014. 

Enlaces externos

  • «Las profundidades del mar de internet», artículo en el sitio web CNN Expansion (Atlanta).
  • Tor Project, sitio oficial del proyecto TOR.
  • Hidden Wiki, Deep Web Links.
  • Deep Web para Todos, grupo de discusiones sobre la Deep Web.
  • TOR, el oscuro mundo de la internet profunda @efe_tec
  • La verdad sobre la Deep Web Web de hackers e informáticos.
  •   Datos: Q221989
  •   Multimedia: Deep web

internet, profunda, deep, redirige, aquí, para, documental, véase, deep, documental, inglés, deep, internet, invisible, internet, oculta, contenido, internet, está, indexado, motores, búsqueda, convencionales, debido, diversos, factores, término, atribuye, inf. Deep web redirige aqui Para el documental vease Deep Web documental Internet profunda 1 del ingles deep web internet invisible 2 o internet oculta 3 es el contenido de internet que no esta indexado por los motores de busqueda convencionales debido a diversos factores 4 El termino se atribuye al informatico Mike Bergman 5 Cifrado de la Internet profunda Indice 1 Origen 2 Tamano 3 Motivos 4 Denominacion 5 Internet academica invisible 5 1 Tamano de la Internet academica invisible 6 Rastreando la internet profunda 7 Metodos de profundizacion 7 1 Las aranas web crawlers 7 2 Tor 7 3 Criptomoneda 8 Recursos de la internet profunda 9 Vease tambien 10 Referencias 11 Enlaces externosOrigen EditarLa principal causa de la existencia de la internet profunda es la imposibilidad de los motores de busqueda ejemplo Google Yahoo y Bing y otros de encontrar o indexar gran parte de la informacion existente en Internet Si los buscadores tuvieran la capacidad para acceder a toda la informacion entonces la magnitud de la internet profunda se reduciria casi en su totalidad No obstante aunque los motores de busqueda pudieran indexar la informacion de la internet profunda esto no significaria que esta dejara de existir ya que siempre existiran las paginas privadas Los motores de busqueda no pueden acceder a la informacion de estas paginas y solo determinados usuarios aquellos con contrasenas o codigos especiales pueden hacerlo En la Deep Web pueden establecerse contactos que no son monitoreados nadie esta alli observando Ademas las transferencias tanto de mercancia como de pagos son practicamente imposibles de rastrear La web esta dividida en dos partes la web superficial y la web profunda Esta ultima es la que se conoce como Deep Web donde se ubica todo contenido que no es indexable por los buscadores o al que los usuarios no pueden acceder mediante un buscador web como DuckDuckGo Startpage Yandex Ecosia Yahoo Google o Bing La internet profunda no es una region prohibida o mistica de internet ni la tecnologia relacionada con ella es necesariamente conspirativa peligrosa o ilegal En ella se alberga todo tipo de recursos a los que es dificil de acceder mediante metodos comunes como los motores de busqueda populares Una parte de la internet profunda consiste en redes internas de instituciones cientificas y academicas que forman la denominada Academic Invisible Web Internet academica invisible la cual se refiere a las bases de datos que contienen avances tecnologicos publicaciones cientificas y material academico en general a los cuales no se pueden acceder facilmente 6 Tamano EditarLa internet profunda es un conjunto de sitios web y bases de datos que buscadores comunes no pueden encontrar ya que no estan indexadas El contenido que se puede hallar dentro de la internet profunda es muy amplio 7 El internet se ve dividido en dos ramas la internet profunda y la superficial La internet superficial se compone de paginas indexadas en servidores DNS con una alfabetizacion y codificacion de pagina perfectamente entendible por los motores de busqueda mientras que la internet profunda esta compuesta de paginas cuyos dominios estan registrados con extensiones onion y los nombres de los dominios estan codificados en una trama hash Estas paginas se sirven de forma ad hoc y no necesitan registrarse basta con que tu ordenador tenga funcionando un servicio onion que hara las veces de un servicio dns pero especial para las paginas del internet profundo Mediante una red P2P se replican las bases de datos que contienen la resolucion de nombres hash Mientras que las paginas normales son identificadas mediante el protocolo UDP IP las paginas onion son repetidas por el ramal al que se ha conectado el navegador especializado para tal sistema de navegacion segura El sistema de busqueda es el mismo que usa BitTorrent El contenido se coloca en una base de datos y se proporciona solamente cuando lo solicite el usuario 8 En 2010 se estimo que la informacion que se encuentra en la internet profunda es de 7500 terabytes lo que equivale a aproximadamente 550 billones de documentos individuales En comparacion se estima que la internet superficial contiene solo 19 terabytes de contenido y un billon de documentos individuales Tambien en 2010 se estimo que existian mas de 200 000 sitios en la internet profunda 9 Estimaciones basadas en la extrapolacion de un estudio de la Universidad de California en Berkeley especula que actualmente la internet profunda debe tener unos 91 000 terabytes 10 La Association for Computing Machinery ACM publico en 2007 que Google y Yahoo indexaban el 32 de los objetos de la internet profunda y MSN tenia la cobertura mas pequena con el 11 Sin embargo la cobertura de los tres motores era de 37 lo que indicaba que estaban indexando casi los mismos objetos 11 Motivos EditarMotivos por los que los motores de busqueda no pueden indexar algunas paginas Documentos o informacion oculta Archivos pdf que no se encuentran en las paginas indexadas listas de datos no publicas sobre todo los ciber criminales Web contextual paginas cuyo contenido varia dependiendo del contexto por ejemplo la direccion IP del cliente de las visitas anteriores etc Contenido dinamico paginas dinamicas obtenidas como respuesta a parametros por ejemplo datos enviados a traves de un formulario Contenido de acceso restringido paginas protegidas con contrasena contenido protegido por un Captcha etc Contenido no HTML contenido textual en archivos multimedia otras extensiones como exe rar zip etc Software Contenido oculto intencionadamente que requiere un programa o protocolo especifico para poder acceder ejemplos Tor I2P Freenet Paginas no enlazadas paginas de cuya existencia no tienen referencia los buscadores por ejemplo paginas que no tienen enlaces desde otras paginas Denominacion EditarLa Web profunda se refiere a la coleccion de sitios o bases de datos que un buscador comun como Google o Bing no pueden o no quieren indexar Es un lugar especifico del internet que se distingue por el anonimato Nada que se haga en esta zona puede ser asociado con la identidad de uno a menos que uno lo desee 12 Bergman en un articulo semanal sobre la Web profunda publicado en el Journal of Electronic Publishing menciono que Jill Ellsworth utilizo el termino Web invisible en 1994 para referirse a los sitios web que no estan registrados por ningun motor de busqueda 13 En su articulo Bergman cito la entrevista que Frank Garcia hizo a Ellsworth en 1996 14 Seria un sitio que posiblemente este disenado razonablemente pero no se molestaron en registrarlo en alguno de los motores de busqueda Por lo tanto nadie puede encontrarlos Estas oculto Yo llamo a esto la Web invisible Otro uso temprano del termino Web Invisible o web profunda fue por Bruce Monte y Mateo B Koll de Personal Library Software en una descripcion de la herramienta 1 de web profunda en un comunicado de prensa de diciembre de 1996 15 La importancia potencial de las bases de datos de busqueda tambien se reflejo en el primer sitio de busqueda dedicado a ellos el motor AT1 que se anuncio a bombo y platillo a principios de 1997 Sin embargo PLS propietario de AT1 fue adquirida por AOL en 1998 y poco despues el servicio AT1 fue abandonado 13 El primer uso del termino especifico de web profunda ahora generalmente aceptada ocurrio en el estudio de Bergman de 2001 mencionado anteriormente Por otra parte el termino web invisible se dice que es inexacto porque Muchos usuarios asumen que la unica forma de acceder a la web es consultando un buscador Alguna informacion puede ser encontrada mas facilmente que otra pero esto no quiere decir que este invisible La web contiene informacion de diversos tipos que es almacenada y recuperada en diferentes formas El contenido indexado por los buscadores de la web es almacenado tambien en bases de datos y disponible solamente a traves de las peticiones o consultas del usuario por tanto no es correcto decir que la informacion almacenada en bases de datos es invisible 16 Internet academica invisible EditarSe denomina Internet Academica Invisible o Academic Invisible Web AIW al conjunto de bases de datos y colecciones relevantes para la academia o con fines academicos que no es posible ser buscado por los motores de busqueda convencionales 6 La preocupacion sobre este tema radica en que millones de documentos permanecen invisibles frente a los ojos de los usuarios convencionales Dentro de estos documentos se pueden encontrar articulos libros reportes documentos de acceso abierto datos de encuestas entre otros El problema con los motores de busqueda convencionales es que no muestran aquellos datos que cambian constantemente como informacion climatica o imagenes satelitales y dicha informacion al cambiar de manera tan rapida es imposible de ser indexada por lo que restringe su aparicion en los motores de busqueda convencionales 17 Una aproximacion al indexamiento y apertura de la Internet academica invisible son los motores de busqueda que se centran en informacion academica como Google Scholar o Scirus El problema de estos motores de busqueda mencionados anteriormente es que fueron creados por companias comerciales El portal de ciencia Vascoda ha demostrado ser la alternativa mas efectiva para eliminar el espacio entre la Internet academica visible e invisible ya que integra bases de datos de literatura colecciones de librerias y demas contenido academico mediante un indexamiento basado en el uso de las etiquetas de cada uno de los dominios que albergan dicha informacion 6 Cabe resaltar que no toda la ausencia de esta informacion en la Internet Visible se debe a los motores de busqueda otro de estos factores se debe a que algunos de estos documentos son propiedad de editoriales de base de datos Tamano de la Internet academica invisible Editar El intento mas acertado por realizar una medicion de la cantidad de documentos academicos presentes en la web invisible fue realizado por Bergman en 2001 en su estudio The Deep Web Surfacing Hideen Value 17 En dicha investigacion Bergman realizo un listado de los 60 sitios academicos mas largos de la Deep Web entre los que se encontraba el National Climatic Data Center NOAA NASA EOSDIS National Oceanographic combined with Geophysical Data Center NOAA entre otras Los sesenta sitios de la Deep Web mas grandes 17 Nombre Tipo Tamano GBs National Climatic Data Center NOAA Publico 366 000NASA EOSDIS Publico 219 600National Oceanographic combined with Geophysical Data Center NOAA Publico Pago 32 940DBT Online Pago 30 500Alexa Publico parcial 15 860Right to Know Network RTK Net Publico 14 640Lexis Nexis Pago 12 200Dialog Pago 10 980Genealogy ancestry com Pago 6 500MP3 com Publico 4 300Terraserver Publico Pago 4 270ProQuest Direct incl Digital Vault Pago 3 172Dun amp Bradstreet Pago 3 113Westlaw Pago 2 684Dow Jones News Retrieval Pago 2 684HEASARC High Energy Astrophysics Science Archive Research Center Publico 2 562US PTO Trademarks Patents Publico 2 440Informedia Carnegie Mellon Univ Publico 1 830infoUSA Pago Publico 1 584Alexandria Digital Library Publico 1 220JSTOR Project Limitado 1 22010K Search Wizard Publico 769UC Berkeley Digital Library Project Publico 766SEC Edgar Publico 610US Census Publico 610Elsevier Press Pago 570NCI CancerNet Database Publico 488EBSCO Pago 481Amazon com Publico 461IBM Patent Center Publico Privado 345NASA Image Exchange Publico 337Springer Verlag Pago 221InfoUSA com Publico Privado 195OVID Technologies Pago 191Investext Pago 157Blackwell Science Pago 146Betterwhois muchos similares Publico 152GPO Access Publico 146Adobe PDF Search Publico 143Internet Auction List Publico 130Commerce Inc Publico 122Library of Congress Online Catalog Publico 116GenServ Pago 106Academic Press IDEAL Pago 104Sunsite Europe Publico 98Uncover Periodical DB Publico Pago 97Astronomer s Bazaar Publico 94eBay com Publico 82Tradecompass Pago 61REALTOR com Real Estate Search Publico 60Federal Express Publico 53Integrum Publico Privado 49NIH PubMed Publico 41Visual Woman NIH Publico 40AutoTrader com Publico 39UPS Publico 33NIH GenBank Publico 31AustLi Australasian Legal Information Institute Publico 24Digital Library Program UVa Publico 21INSPEC Pago 16Subtotal fuentes publicas y mixtas 673 035Subtotal fuentes pagas 75 469TOTAL 748 504El problema con dicha medicion es que se realizo por el tamano de la pagina en GB mas no por la cantidad de articulos publicados No obstante dicha cantidad expresaba que se albergaba mas de 700TB o 700000GB de informacion que no esta expuesta en la Internet superficial Esta informacion es complementada por Lewandosky adicionando datos de la Gale Directory of Databases los cuales fueron comparados con los datos de Bergman 6 En dicho directorio se aproximo que existe un total de 18 92 billones de documentos academicos en total Rastreando la internet profunda Editar Infografia sobre la deep web Los motores de busqueda comerciales han comenzado a explorar metodos alternativos para rastrear la Web profunda El Protocolo del sitio primero desarrollado e introducido por Google en 2005 y OAI son mecanismos que permiten a los motores de busqueda y otras partes interesadas descubrir recursos de la internet profunda en los servidores web en particular Ambos mecanismos permiten que los servidores web anuncien las direcciones URL que se puede acceder a ellos lo que permite la deteccion automatica de los recursos que no estan directamente vinculados a la Web de la superficie El sistema de busqueda de la Web profunda de Google pre calcula las entregas de cada formulario HTML y agrega a las paginas HTML resultantes en el indice del motor de busqueda de Google Los resultados surgidos arrojaron mil consultas por segundo al contenido de la Web profunda 18 Este sistema se realiza utilizando tres algoritmos claves La seleccion de valores de entrada para que las entradas de busqueda de texto acepten palabras clave La identificacion de los insumos que aceptan solo valores especificos por ejemplo fecha La seleccion de un pequeno numero de combinaciones de entrada que generan URLs adecuadas para su inclusion en el indice de busqueda Web Metodos de profundizacion EditarLas aranas web crawlers Editar Cuando se ingresa a un buscador y se realiza una consulta el buscador no recorre la totalidad de internet en busca de las posibles respuestas sino que busca en su propia base de datos que ha sido generada e indexada previamente Se utiliza el termino arana web en ingles web crawler o robots por software comunmente llamados bots inteligentes que van haciendo busquedas por enlaces de hipertexto de pagina en pagina registrando la informacion ahi disponible 19 Cuando una persona realiza una consulta el buscador no recorre la totalidad de internet en busca de las posibles respuestas lo cual supondria una capacidad de reaccion bastante lenta Lo que hace es buscar en su propia base de datos que ha sido generada e indizada previamente En sus labores de busqueda indizacion y catalogacion utilizan las llamadas aranas o robots inteligentes que van saltando de una pagina web a otra siguiendo los enlaces de hipertexto y registran la informacion alli disponible datos que se generan en tiempo real como pueden ser valores de Bolsa informacion del tiempo horarios de trenes El contenido que existe dentro de la internet profunda es en muy raras ocasiones mostrado como resultado en los motores de busqueda ya que las aranas no rastrean bases de datos ni los extraen Las aranas no pueden tener acceso a paginas protegidas con contrasenas algunos desarrolladores que no desean que sus paginas sean encontradas insertan etiquetas especiales en el codigo para evitar que sea indexada Las aranas son incapaces de mostrar paginas que no esten creadas en lenguaje HTML ni tampoco puede leer enlaces que incluyen un signo de interrogacion Pero ahora sitios web no creados con HTML o con signos de interrogacion estan siendo indexados por algunos motores de busqueda Sin embargo se calcula que incluso con estos buscadores mas avanzados solo se logra alcanzar el 16 de la informacion disponible en la internet profunda Existen diferentes tecnicas de busqueda para extraer contenido de la internet profunda como librerias de bases de datos o simplemente conocer el URL al que quieres acceder y escribirlo manualmente 20 Tor Editar Articulo principal Tor red de anonimato Logo de Tor The Onion Router abreviado como TOR es un proyecto disenado e implementado por la marina de los Estados Unidos lanzado el 20 de septiembre de 2002 Posteriormente fue patrocinado por la EFF Electronic Frontier Foundation una organizacion en defensa de los derechos digitales Al presente 2019 subsiste como The Tor Project una organizacion sin animo de lucro galardonada en 2011 por la Free Software Foundation por permitir que millones de personas en el mundo tengan libertad de acceso y expresion en internet manteniendo su privacidad y anonimato 21 A diferencia de los navegadores de internet convencionales Tor le permite a los usuarios navegar por la Web de forma anonima Tor es descargado de 30 millones a 50 millones de veces al ano hay 0 8 millones de usuarios diarios de Tor y un incremento del 20 solamente en 2013 Tor puede acceder a unos 6 500 sitios web ocultos 22 Cuando se ejecuta el software de Tor para acceder a la internet profunda los datos de la computadora se cifran en capas El software envia los datos a traves de una red de enlaces a otros equipos llamados en ingles relays nodos y lo va retransmitiendo quitando una capa antes de retransmitirlo de nuevo esta trayectoria cambia con frecuencia Tor cuenta con mas de 4 000 retransmisiones y todos los datos cifrados pasan a traves de por lo menos tres de estos relays Una vez que la ultima capa de cifrado es retirado por un nodo de salida se conecta a la pagina web que desea visitar El contenido que puede ser encontrado dentro de la internet profunda es muy vasto se encuentran por ejemplo datos que se generan en tiempo real como pueden ser valores de Bolsa informacion del tiempo horarios de trenes bases de datos sobre agencias de inteligencia disidentes politicos y contenidos criminales 19 Criptomoneda Editar Articulo principal Criptomoneda Logo de Bitcoin una criptomoneda Es posible encontrar sitios web que realicen transacciones ilegales como drogas armas o incluso sicarios en servidores exclusivos para usuarios de Tor Es una practica comun utilizar monedas digitales como el Bitcoin 21 que se intercambia a traves de billeteras digitales entre el usuario y el vendedor lo que hace que sea practicamente imposible de rastrear 23 Vale la pena acotar que salvo por excepciones de algunos mercados como Silk Road The Trade Route o Wall Street Market la mayor parte del comercio en la deep web se constituye a base de ofertas enganosas y fraudes en general existe una gran tendencia a satanizar a comunidades que buscan la libertad de expresion y el anonimato en el mundo hispano hablante esta tendencia fue originada por blogueros y youtubers que lejos de informar a las comunidades buscan crear escandalos amarillistas para obtener ingresos por conceptos de publicidad de sistemas como Adsense En los ultimos anos se ha demostrado que el Bitcoin no es una criptomoneda segura cuando se trata de la confidencialidad de los datos de sus usuarios motivo por el cual tendria poco sentido utilizarla en redes de anonimato como Tor Freenet o I2P cuyos usuarios intentan alcanzar el climax del anonimato por lo cual no se puede descartar tampoco la intervencion de empresas propagandistas que intentan aumentar el valor de mercado del bitcoin Recursos de la internet profunda EditarLos recursos de la internet profunda pueden estar clasificados en las siguientes categorias Contenido de acceso limitado los sitios que limitan el acceso a sus paginas de una manera tecnica Por ejemplo utilizando el estandar de exclusion de robots o captcha que prohiben los motores de busqueda de la navegacion por y la creacion de copias en cache 24 Contenido dinamico las paginas dinamicas que devuelven respuesta a una pregunta presentada o acceder a traves de un formulario especialmente si se utilizan elementos de entrada en el dominio abierto como campos de texto Contenido no enlazado paginas que no estan conectadas con otras paginas que pueden impedir que los programas de rastreo web tengan acceso al contenido Este material se conoce como paginas sin enlaces entrantes Contenido programado paginas que solo son accesibles a traves de enlaces producidos por JavaScript asi como el contenido descargado de manera dinamica a partir de los servidores web a traves de soluciones de Flash o Ajax Sin contenido HTML contenido textual codificado en multimedia imagen o video archivos o formatos de archivo especificos no tratados por los motores de busqueda Web privada los sitios que requieren de registro y de una contrasena para iniciar sesion Web contextual paginas con contenidos diferentes para diferentes contextos de acceso por ejemplo los rangos de direcciones IP de clientes o secuencia de navegacion anterior Vease tambien Editar onion I2P Darknet The Hidden WikiReferencias Editar internet profunda mejor que Deep Web Aunque es posible emplear tanto el masculino como el femenino la forma femenina es la que de hecho esta mas extendida con gran diferencia Fundeu Consultado el30 de marzo de 2016 Devine Jane Egger Sider Francine julio de 2004 Beyond google the invisible web in the academic library The Journal of Academic Librarianship 30 4 265 269 doi 10 1016 j acalib 2004 04 010 Consultado el 6 de febrero de 2014 Raghavan Sriram Garcia Molina Hector 11 14 de septiembre de 2001 Crawling the Hidden Web 27th International Conference on Very Large Data Bases Roma Italia Deep web guia basica para saber que es y como se usa El Pais 2016 Consultado el 2017 Wright Alex 22 de febrero de 2009 Exploring a Deep Web That Google Can t Grasp The New York Times Consultado el 23 de febrero de 2009 a b c d Lewandowski Exploring the academic invisible web 11 de noviembre de 2013 Library Hi Tech en ingles the Academic Invisible Web AIW We define the Academic Invisible Web as consisting of all databases and collections relevant to academia but not searchable by the general purpose internet search engines Falta la url ayuda fechaacceso requiere url ayuda Grossman Lev 11 de noviembre de 2013 The Deep Web Time en ingles Consultado el 28 de octubre de 2014 Technically the Deep Web refers to the collection of all the websites and databases that search engines like Google don t or can t index Iffat Rabia 1 de octubre de 2010 Understanding the Deep Web Library Philosophy and Practice 2010 en ingles Consultado el 28 de octubre de 2014 Surface Web is made up of static and fixed pages whereas Deep Web is made up of dynamic pages Static pages do not depend on a database for their content They reside on a server waiting to be retrieved and are basically html files whose content never changes Iffat Rabia 1 de octubre de 2010 Understanding the Deep Web Library Philosophy and Practice 2010 en ingles Consultado el 28 de octubre de 2014 Public information on the Deep Web is currently 400 550 times larger than the commonly defined World Wide Web The Deep Web contains 7 500 terabytes of information compared to 19 on the Surface Web Deep Web contains nearly 550 billion individual documents compared to one billion on the Surface Web More than 200 000 Deep Web sites presently exist DeepWeb He Bin 1 de mayo de 2007 Ebscohost Communications of the ACM en ingles Consultado el 29 de octubre de 2014 Google and Yahoo both indexed 32 of the deep Web objects and MSN had the smallest coverage of 11 However there was significant overlap in what they covered the combined coverage of the three largest search engines increased only to 37 indicating they were indexing almost the same objects Grossman Lev Newton Small Roy amp Stampler noviembre de 2013 The Deep Web Time 182 20 La referencia utiliza el parametro obsoleto coautores ayuda a b Bergman Michael K White Paper The Deep Web Surfacing Hidden Value en ingles Consultado el 30 de octubre de 2014 Garcia Frank enero de 1996 Business and Marketing on the Internet Masthead 9 1 Archivado desde el original el 5 de diciembre de 1996 Consultado el 24 de febrero de 2009 1 comenzo con 5 7 terabytes de contenido estimado en 30 veces el tamano de la naciente World Wide Web PLS fue adquirida por AOL en 1998 y 1 fue abandonado PLS introduce AT1 el servicio de la primera segunda generacion de busqueda en internet Personal Library Software diciembre de 1996 Archivado desde el original el 21 de octubre de 1997 Consultado el 24 de febrero de 2009 Llanes Vilaragut Lourdes amp Suarez Carro Juan R Para acceder al web profundo conceptos y herramientas Archivado desde el original el 30 de octubre de 2014 Consultado el 30 de octubre de 2014 a b c Bergman Michael K 2001 8 The Deep Web Surfacing Hidden Value Journal of Electronic Publishing 7 1 ISSN 1080 2711 Consultado el 11 de marzo de 2019 Madhavan Jayant Ko David Kot Lucja Ganapathy Vignesh Rasmussen Alex amp Havely Alon Google s DeepWeb Crawl en ingles Consultado el 30 de octubre de 2014 a b Salazar Idoia El inmenso oceano del Internet profundo 20 de octubre de 2005 El Pais Madrid Consultado el 29 de octubre de 2014 Iffat Rabia 1 de octubre de 2010 Understanding the Deep Web Library Philosophy and Practice 2010 en ingles Consultado el 28 de octubre de 2014 The content of the Deep Web is rarely shown in a search engine result since the search engine spiders do not crawl into databases and extract the data These spiders can neither think nor type but jump from link to link As such a spider cannot enter pages that are password protected Web page creators who do not want their page shown in search results can insert special meta tags to keep the page from being indexed Spiders are also unable to pages created without the use of html and also links that include a question mark But now parts of the Deep Web with non html pages and databases with a question mark in a stable URL are being indexed by search engines with non html pages converted to html Still it is estimated that even the best search engines can access only 16 percent of information available on the Web There are other Web search techniques and technologies that can be used to access databases and extract the content a b Becerra Gutierrez Juan Armando Mitos y realidades de la internet profunda Consultado el 30 de octubre de 2014 Grossman Lev 11 de noviembre de 2013 The Deep Web Time en ingles Consultado el 28 de octubre de 2014 Unlike conventional Internet browsers Tor s allows users to surf the Web anonymously Tor is downloaded 30 million 50 million times a year There are 800 000 daily Tor users a jump of 20 in the past year Tor can access 6 500 hidden websites Grossman Lev 11 de noviembre de 2013 The Deep Web Time en ingles Consultado el 28 de octubre de 2014 Bitcoin Hypertext Transfer Protocol HTTP 1 1 Caching en ingles junio de 2014 Consultado el 30 de octubre de 2014 Enlaces externos Editar Las profundidades del mar de internet articulo en el sitio web CNN Expansion Atlanta Tor Project sitio oficial del proyecto TOR Hidden Wiki Deep Web Links Deep Web para Todos grupo de discusiones sobre la Deep Web TOR el oscuro mundo de la internet profunda efe tec La verdad sobre la Deep Web Web de hackers e informaticos Datos Q221989 Multimedia Deep web Obtenido de https es wikipedia org w index php title Internet profunda amp oldid 139628365, wikipedia, wiki, leyendo, leer, libro, biblioteca,

español

, española, descargar, gratis, descargar gratis, mp3, video, mp4, 3gp, jpg, jpeg, gif, png, imagen, música, canción, película, libro, juego, juegos