Antes de un Ataque hay que Buscar Información: Footprinting

Antes de llevar a cabo cualquier ataque cibernético, la primera y crucial etapa es la búsqueda de información del objetivo. Esta fase, implica reunir datos detallados sobre la organización o individuo objetivo para identificar posibles vulnerabilidades. A través de diversas técnicas de ingeniería social (de la que os hablé el otro día y os hablaré en futuros artículos: Enlace), análisis de redes y exploración de recursos públicos, los atacantes pueden descubrir puntos débiles que les permitan acceder a sistemas críticos.

Comprender esta etapa es esencial no solo para los cibercriminales, sino también para los profesionales de ciberseguridad, ya que les permite anticiparse a las amenazas y fortalecer las defensas. En este artículo, exploraremos las metodologías y herramientas empleadas en la recolección de información y cómo pueden ser contrarrestadas para proteger nuestros activos digitales.

El footprinting consiste en la búsqueda de información pública del objetivo, es decir, recoger toda la información útil que esté publicada en Internet, ya sea a propósito o por  desconocimiento.

Esta búsqueda de información no se considera delito, ya que esta información es pública y además la entidad no debería detectarlo. Se buscará cualquier dato que nos sea de utilidad para poder lanzar posteriormente un ataque.

Una vez elegido el objetivo, el primer paso es navegar por el sitio web de la organización y utilizar sus aplicaciones y servicios en busca de errores. Esto incluye buscar enlaces olvidados que no deberían estar allí, especialmente en sitios web muy grandes, y examinar las llamadas a la base de datos. Al realizar consultas con parámetros incorrectos, como referencias a tablas inexistentes o intentos de introducir datos en una tabla vinculada con claves ajenas, la base de datos puede mostrar errores que revelen nombres de campos y tablas. Estos datos sensibles pueden ser explotados para llevar a cabo una inyección SQL, abriendo una puerta a posibles ataques.

Hay un mecanismo que utilizan algunas páginas web para que los buscadores como Bing o Google no indexen ciertas páginas de un sitio web en sus bases de datos. Es el llamado robots.txt, el cual se encuentra en la URL:

www.nombredelapagina.com/robots.txt

Si visitamos esa dirección en algunos sitios web podremos encontrar también una gran fuente de información, ya que se suele utilizar para poner las direcciones de páginas de administración del sitio o zonas restringidas de la entidad.

Después deberemos descargarnos el código fuente del sitio web entero. Para ello usaremos la herramienta httrack en Windows o webhttrack para Linux o Mac OS X. Esta herramienta dispone tanto de modo de uso gráfico como en consola. Con ella podremos descargarnos todo el sitio web de una entidad: el código HTML de las páginas web, las imágenes, documentos y archivos que tenga e incluso todas las páginas a las que enlace.

La herramienta se debe usar con precaución, pues permite la descarga simultánea de muchos objetos (imágenes, documentos, páginas…) y puede llegar a saturar la red si se realizan muchas conexiones al mismo tiempo.

Cuando ya tenemos todo el código se puede buscar en él. Muchas veces los desarrolladores suelen dejar comentarios que nos pueden ser útiles. De hecho hay demasiadas ocasiones en las que hay nombres de usuario y contraseñas por defecto, cuentas de correo, nombres reales…

Como todos sabréis, el formato de un comentarioen HTML es:

<!- – comentario del código – ->

Por lo que se pueden realizar búsquedas de la siguientes formas:

cat *.html | grep contraseña
cat *.html | grep –A 3 “<\!”

La primera busca en todos los archivos si está la palabra contraseña y la segunda busca el inicio de un comentario y muestra las siguientes tres líneas (por si el comentario fuera demasiado largo).

Otro paso interesante es preguntar a los buscadores (Google, Bing…) por el dominio del que nos interesa obtener información. En muchas ocasiones las arañas (crawlers) que utilizan los buscadores para navegar por internet de forma autonoma e indexar páginas, indexan páginas que no deben o que nos muestran cierta información que es difícil de encontrar de forma manual.

Tenéis más información en la siguiente entrada Enlace

Los buscadores tienen una serie de palabras y carácteres reservados para especificar más las búsqueda. Y para encontrar búsquedas más avanzadas (los llamados Dorks de Google) es recomendable visitar el repositorio de la Google Hacking Database (GHDB), que se encuentra en la página: https://blog.miguelandrescaballero.es/dorks

En esa web se pueden encontrar diferentes búsquedas realizadas para encontrar vulnerabilidades, usuarios, archivos… hasta contraseñas. Muchas de las búsquedas están desactualizadas, pero a día de hoy aún siguen apareciendo nuevos resultados útiles.

 

Y para no alargar mucho más este tema, continuaremos hablando sobre esto en futuras entradas y os indicaremos algunas herramientas útiles que se pueden utilizar para agilizar la búsqueda de información.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *