GNU/Linux >> Tutoriales Linux >  >> Linux

¿Automatizar solicitudes web usando Curl?

Tengo algunos sistemas “corporativos” que tengo que usar en el trabajo. Algunos de ellos son terribles, con marcos, ventanas emergentes y demás.

Estaba pensando en automatizar algunas cosas usando curl o algo así. Necesito iniciar sesión, hacer clic en los hipervínculos, configurar algunos datos y luego hacer alguna publicación.

¿Es posible usar curl? ¿O voy a estar mejor usando algo como Selenium?

Respuesta aceptada:

Sí, es totalmente posible con curl. Lo más importante será guardar y volver a cargar cookies entre usos de curl con --cookie-jar . También puede publicar datos de formulario según sea necesario. Usualmente uso un complemento de Firefox llamado Live HTTP Headers para capturar lo que sucede cuando navego por un sitio web. Registrará cualquier encabezado, pero también cualquier publicación de formulario, lo que es muy útil cuando se trata de averiguar qué hacer con curl. He escrito scripts de bash que automatizan varias invocaciones de curl y uso canalizaciones y archivos temporales (cortesía de mktemp ) para hacer un procesamiento limitado en la página web, pero si tengo que hacer mucho procesamiento de la página web, normalmente cambio a Perl con LibWWW.


Linux
  1. ¿Comprobación del estado de la página web con Curl?

  2. wget vs curl:Cómo descargar archivos usando wget y curl

  3. Automatización de comandos en ejecución en Linux desde Windows usando PuTTY

  4. Descarga paralela usando la utilidad de línea de comando Curl

  5. realizando solicitudes HTTP con cURL (usando PROXY)

Uso de Curl para realizar solicitudes de API REST

Cómo compartir su terminal a la web usando Streamhut

Administrar máquinas virtuales KVM mediante la consola web de Cockpit

Uso del certificado de cliente en el comando Curl

RabbitMQ:obtenga mensajes de una cola usando curl

rsync usando expresiones regulares para incluir solo algunos archivos