GHunt es una herramienta OSINT modulable para extraer información de cualquier cuenta de Google utilizando un correo electrónico y está diseñada para evolucionar a lo largo de los años.
Actualmente cuenta con módulos de correo electrónico, documentos, YouTube y Gaia.
¿Qué puede encontrar GHunt?
Módulo de correo electrónico:
Nombre del propietario
ID
Última vez que se editó el perfil
Imagen del perfil (+ detectar imagen personalizada)
Si la cuenta es un Hangouts Bot
Servicios de Google activados (YouTube, Fotos, Mapas, News360, Hangouts, etc.)
Posible canal de YouTube
Posibles otros nombres de usuario
Reseñas de Google Maps (M)
Posible ubicación física (M)
Eventos de Google Calendar (C)
Organizaciones (trabajo y educación) (A)
Correos electrónicos de contacto (A)
Teléfonos de contacto (A)
Direcciones (A)
Fotos públicas (P)
Modelos de teléfonos (P)
Firmwares de teléfonos (P)
Programas instalados (P)
Módulo de documentos:
Nombre del propietario
ID de Gaia del propietario
Imagen de perfil del propietario (+ detectar imagen personalizada)
Fecha de creación
Última vez que se editó el documento
Permisos públicos
Tus permisos
Módulo de Youtube:
ID de Gaia del propietario (a través de Wayback Machine)
Detectar si el correo electrónico es visible
País
Descripción
Vistas totales
Fecha de incorporación
Enlaces principales (redes sociales)
Toda la información accesible por el módulo Gaia
Módulo Gaia:
Nombre del propietario
Imagen de perfil (+ detectar imagen personalizada)
Posible canal de YouTube
Posibles otros nombres de usuario
Reseñas de Google Maps (M)
Posible ubicación física (M)
Organizaciones (trabajo y educación) (A)
Correos electrónicos de contacto (A)
Teléfonos de contacto (A)
Direcciones (A)
Las funciones marcadas con una (P) requieren que la cuenta de destino tenga la configuración predeterminada de Permitir que las personas con las que compartes contenido descarguen tus fotos y vídeos en el Archivo de álbumes de Google, o si el destino ha utilizado alguna vez Picasa vinculado a su cuenta de Google. Más información aquí.
Los marcados con una (M) requieren que las reseñas de Google Maps del objetivo sean públicas (son públicas por defecto).
Los marcados con una (C) requieren que el usuario tenga Google Calendar configurado como público (por defecto este se encuentra cerrado).
Los marcados con una (A) requieren que el usuario tenga la información adicional configurada en el perfil con la opción de privacidad “Cualquiera” activada, en caso negativo no se mostrarán.
Instalación
Instalación manual
Asegúrate de tener instalado Python 3.7+.
Se requieren algunos módulos de Python que están contenidos en requirements.txt y se instalarán a continuación.
1. Chromedriver y Google Chrome
Este proyecto utiliza Selenium y descarga automáticamente el driver correcto para tu versión de Chrome. (⚠️ Así que asegúrate de tener instalado Google Chrome.)
2. Clonación
Abre tu terminal, y ejecuta los siguientes comandos :
git clone https://github.com/mxrch/ghunt cd ghunt
3. Requisitos
En la carpeta de GHunt, procede a ejecutar
python3 -m pip install -r requirements.txt
Adapta el comando a tu sistema operativo si es necesario.
Docker
La imagen Docker se construye automáticamente y se empuja a Dockerhub después de cada empuje en este repositorio.
Puedes extraer la imagen Docker con
docker pull ghcr.io/mxrch/ghunt
Luego, puedes usar docker_check_and_gen.sh y docker_hunt.sh para invocar GHunt a través de Docker, o puedes usar estos comandos :
docker run -v ghunt-resources:/usr/src/app/resources -ti ghcr.io/mxrch/ghunt check_and_gen.py docker run -v ghunt-resources:/usr/src/app/resources -ti ghcr.io/mxrch/ghunt ghunt.py
Uso
Para la primera ejecución y algún tiempo después, necesitarás comprobar la validez de tus cookies.
Para ello, ejecuta check_and_gen.py.
Si no tienes cookies almacenadas (ej: primer lanzamiento), se te pedirán las cookies necesarias. Si son válidas, generará el token de autenticación y los tokens de Google Docs y Hangouts.
A continuación, puedes ejecutar la herramienta de la siguiente manera
También conocido como Google Dorking o Google Hacking, consiste en la utilización de los operadores de Google para realizar búsquedas avanzadas.
Conocer el funcionamiento de los operadores y aplicar el ingenio nos llevará a encontrar información muy valiosa. Hay que tener en cuenta que, Google indexa automáticamente el contenido de cualquier sitio web (si no se le indica lo contrario), haciendo posible que de esta manera podamos obtener información de cualquier tipo.
En Google Hacking Database podemos encontrar una amplia recopilación de diferentes dorks que otros hackers fueron utilizando a la hora de realizar diferentes búsquedas avanzadas.
Bing Dorks
Misma idea que para Google Dorks, habiendo sutiles diferencias en la sintaxis de los operadores, lo que nos brinda diferentes opciones y posibilidades.
Muchas veces es una herramienta olvidada por el gran parecido que tiene con su homóloga de Google, pero hay que tener en cuenta que las “arañas” que indexan la web son diferentes en los 2 motores de búsqueda, lo que hace que nos devuelvan diferentes resultados a los obtenidos con un dork similar en Google.
Con este caso, ya podemos ver y entender, el porque no es mala idea conocer diferentes herramientas con propósitos similares. Los resultados que nos brindarán ambas alternativas podrán ser complementarios y eso siempre sumará a la hora de obtener más información y más contrastada, mejorando por ende, la calidad de nuestras investigaciones.
Un potente motor de búsqueda que permite al usuario encontrar diferentes equipos conectados a internet a través de diferentes filtros.
Habitualmente conocido como “el Google de los hackers”, en Shodan podemos encontrar servidores, routers, webcams, dispositivos IOT, …etc. Además para profundizar en estos, podemos ver la información que contienen sus banners.
Utilizando los filtros podremos afinar en nuestras búsquedas, ya que podremos buscar por país, ciudad, nº puerto que este abierto,fecha, SO, …etc
Shodan es sin duda un recurso que no suele faltar en la metodología de trabajo de los investigadores.
Se trata de una potente herramienta que recopila información sobre un objetivo y nos la muestra en forma de grafo, permitiéndonos así analizar cómodamente las diferentes relaciones.
Muy interesante cuando ponemos de objetivo a una empresa,persona o sitio web en fases iniciales del reconocimiento, ya que nos devolverá gran cantidad de información cruzada, y nos servirá para hacer múltiples enumeraciones en vectores por los que podremos seguir investigando.
Una interesante herramienta por linea de comandos que recolecta información pública en la web(emails, subdominios,nombres, URLs,…). Esta recolección de información la puede hacer de 2 maneras: Pasiva y activa.
Con la recolección pasiva, no interactúa en ningún momento con el objetivo y obtiene toda la información a través de los diferentes motores de búsqueda integrados en la herramienta.
Por su parte la recolección activa, interactúa con el objetivo haciéndole Brute force al DNS o quitando screenshots de los subdominios encontrados.
Framework con varios módulos (estilo Metasploit) que nos servirá para recolectar información de manera automatizada sobre un objetivo buscando en diferentes motores.
Su interfaz es a través de linea de comandos y está organizada de una manera que la hace muy amigable. A través de ella podremos interactuar con una BD, hacer peticiones HTTP, gestionar API keys, etc
Como ya vimos con TheHarvester, esta herramienta permite hacer reconocimiento pasivo y activo
Se trata de un potente motor de búsqueda para dispositivos conectados a internet. Tiene gran parecido con Shodan, pero una vez más se trata de una herramienta complementaria para nuestras investigaciones, ya que presentan diferentes sutilezas en el funcionamiento que nos permitirán llegar a diferentes resultados, y por supuesto contrastar los resultados similares.
Es una herramienta que nos permite obtener subdominios en base al certificado de transparencia. Su funcionamiento es muy sencillo, ya que bastará con poner el objetivo en el buscador y a los pocos segundos nos mostrará todos los subdominios encontrados en base al certificado de transparencia.
El certificado de transparencia es un log que contiene todos los certificados SSL/TLS que una CA emitió, con el fin de identificar fácilmente certificados erróneos o maliciosos.
Más información sobre el certificado de transparencia aquí
Se trata de una herramienta de geolocalización. Recopila información relacionada con posibles ubicaciones a través de diferentes fuentes online. Permite extraer información de cuentas Twitter,Flicklr, Facebook, etc… Posteriormente representa esta información en un mapa y es posible exportarla a formatos CSV o KML para su posterior utilización.
Una interesante herramienta que a través de su buscador nos brinda gran cantidad de información sobre un dominio. Toda la información la recopila consultando en diferentes motores de búsqueda y sin realizar fuerza bruta contra el dominio objetivo. Los datos se obtienen a través de consultas en plataformas como Alexa Top 1 Million, motores de búsqueda (Google, Bing, etc), Common Crawl, Certificate Transparency, Max Mind, Team Cymru, Shodan y scans.io.
Su uso es muy sencillo, ya que basta con poner el objetivo en el buscador y esperar unos segundos. Eso sí, después habrá que tomar un tiempo analizando toda la información que obtenemos.
Un motor de búsqueda para pentesters. Podemos buscar a partir de dominios, Ip, certificados, tecnologías etc… y en pocos segundos nos devuelve información muy detallada sobre nuestro objetivo en cuestión: Subdominios, certificados, tecnologías, CVEs, etc… Además, tiene una opción de búsqueda avanzada por si queremos afinar nuestra búsqueda. Sin duda, una herramienta muy sorprendente por el amplio abanico de posibilidades que ofrece, y en el pequeño intervalo de tiempo que es capaz de realizarlo.
Herramienta por linea de comandos que nos permite extraer metadatos de archivos públicos con diferentes extensiones pertenecientes a nuestro objetivo. En los metadatos podremos encontrar gran cantidad de información que nos servirá para avanzar en la investigación. Como sabemos, en los metadatos se alberga una serie de información relativa al fichero en cuestión: nombre autor, fechas creación y edición, coordenadas, versiones de software, etc …
Una herramienta bastante reconocida en el mundo de la ciberseguridad. Foca utiliza Google, Bing y DuckDuckGo para encontrar diferentes archivos ofimáticos relacionados con un dominio. Posteriormente a estos archivos les hace un análisis de metadatos y nos terminará devolviendo organizadamente toda la información obtenida.
La “máquina del tiempo” de internet. Un recurso increíble que nos permite ver páginas web en diferentes momentos del pasado (Obviamente, siempre y cuando estén archivadas) Este proyecto lleva archivando diferentes versiones de las páginas web desde 1996 y cuenta con 544 billones de páginas web. WaybackMachine nos permite ver una web replicada en diferentes fechas, lo que nos da una posibilidad a consultar información que haya sido borrada u ocultada. A través de la extensión para navegador de Wayback Machine, podremos tomar capturas nosotros mismos de la web que deseemos. En España, incluso ya se acepta como medio probatorio en muchas jurisdicciones.
Imagina lo útil que daría una máquina del tiempo para un viaje al pasado y ver ciertas cosas en primera persona… Pues salvando las distancias, eso es lo que nos permite WaybackMachine hacer en Internet.
Herramienta Osint para extraer información a partir de Instagram. La herramienta nos proporciona un shell interactivo con el que podremos realizar análisis de cuentas de Instagram y conseguir información que nos pueda ayudar para nuestras investigaciones.
Un vídeo (en inglés) donde Network Chuck nos explica con detalle Osintgram
Spiderfoot es una herramienta de reconocimiento que consulta automáticamente 100 fuentes de datos públicas y así poder recopilar dominios, nombres, correos, direcciones, etc...
Simplemente hará falta especificarle un objetivo y Spiderfoot nos proporcionará toda la información interesante, entre la que podremos encontrar leaks o datos de interés para continuar con la investigación. Como muchas de las herramientas que hemos citado, está muy automatizada y nos permitirá recopilar fácilmente gran cantidad de información.
Esta técnica consiste en la utilización de la búsqueda inversa de Google Imagenes. Si disponemos de una foto y queremos averiguar información sobre ella (por ejemplo reconocer a la persona de la foto), entonces tendremos que ir a Google imágenes y en el icono de la cámara subir la foto en cuestión. De esta manera Google buscará posibles coincidencias, que además, podremos afinar añadiendo palabras clave en el buscador.
A continuación podemos ver que nos devuelve al buscar cierta imagen. Previamente adjunte dicha imagen en el icono de la cámara en la barra del navegador… y esta es la respuesta que nos devuelve. Nada mal no?
Una interesante herramienta para extraer información a través de Twitter. Tinfoleak toma como referencia un usuario, palabras clave o coordenadas y nos devuelve un informe muy detallado y ordenado con diferentes datos al respecto.
Se trata de una extensión para navegadores con la cual podremos conocer las tecnologías sobre las que está implementada la web que visitemos en ese momento. Su funcionamiento es muy sencillo, ya nosotros simplemente tendremos que visitar la página en cuestión y desplegando la información sobre el plugin veremos una información del estilo de la imagen que tenemos a continuación.
OSINT Framework es un proyecto en el que se recopilan gran cantidad de herramientas OSINT. En la web de OSINT Framework podremos encontrar los enlaces a las diferentes herramientas ordenadas por distintas categorías. Muchas de ellas son herramientas web y otras enlazan al repositorio Github desde el que podremos instalar la herramienta en cuestión.
Y aquí concluye este recopilatorio de herramientas OSINT. Como se puede ver, hay variedad de herramientas para encarar los diferentes vectores desde dónde podremos obtener información. A su vez, si nos fijamos, también hay muchas herramientas que nos devolverán resultados muy parecidos, pero como ya mencioné varias veces a lo largo del artículo, esto es muy interesante ya que nos permitirá contrastar y conseguir mayor versatilidad a la hora de obtener información.
Otro punto, que hay que tener siempre presente, es que solo con las herramientas no estaría el trabajo hecho. Estas herramientas solo nos devuelven los datos en bruto. Pero nuestro objetivo es generar inteligencia. Si queremos obtener inteligencia tendremos que tratarlos y analizarlos. Y ahí tendremos que poner en juego nuestra pericia como investigadores, no llega con simplemente pulsar el botón y lanzar estas herramientas.