ID: 28396
Creador: VIDAL I CANET, JOSEP LLUIS
URL: https://mmedia.uv.es/html5/u/vi/vijo/28396_cluster_web_step3.mp4
Código de inserción:
<video poster="https://mmedia.uv.es/g?user=vijo&path=/ibm_http_server/&name=cluster_web_step3.mp4&resource_id=28396" controls="" autoplay="" autobuffer="" controlslist="nodownload">
<source src="https://mmedia.uv.es/html5/u/vi/vijo/28396_cluster_web_step3.mp4" type="video/mp4">
</video>
Categoría: Sin categorizar
Clasificación Unesco: Sin categorizar
Descripción: Para ello, vamos a utilizar la URL lynx 10.1.1.2/cgi-bin/environ.sh . Este es un cgi que nos da información sobre el entorno de ejecución del servidor web en z/os. Pound redireccinará esta URL a http://p390.uv.es/cgi-bin/environ.sh o bien a| http://129.35.161.134/cgi-bin/environ.sh
Luego comprobaremos como pound detecta la caida del HTTP Server Backend y lo marca como muerto. A partir de ahí solo enviará las peticiones WEB a la LPAR zeuszvm. Posteriorment, levantaremos el HTTP Server de Valencia (/START HTTPD1), veremos como a los 30 segundos pound lo detecta como resucitado y reanuda el balanceo de peticiones a p390.
Etiquetas:
Resolucion: 1000 x 1018
unknown
Puntuación: Sense puntuacio (puntuar).
Licencia CC: No asignada
Visitas: 895
Finally, we compare rows from the table that was been modified while source DB2 was clonned. Josep Vidal - System Programmer. For more questions you can reach me at: josepvidalcanet@gmail.com .
Una vez tenemos instalado el nucleo del sistema operativo, procedemos a instalar las utilidades estándar del sistema (ssh server, etc ...).
En este paso vamos a configurar los volumenes que utilizaremos para el root file system de la debian s390 y el volumen para la paginación del sistema.
En este paso vamos a configurar los usuarios del futuro linux debian para s390.
First of all, we execute REXX code to simulate DB workload. This workload consist in inserting on row per second in table sysadm.prv. Second, we stop TARGET (/-DBF STOP DB2) and delete all its datasets except the TARGET SDSN libraries and installation jobs . Finally, we proceed to COPY SOURCE datasets to TARGET DB2, while renaming HLQ (High Level Qualifier). The JCL that implements this is called CPYREN and is executed while source DB is up and running.