Sysadmin's Shouts!

a blog for sysadmin's rants and raves…


Leave a comment

HowTo: Actualizar FW de librerías de cintas IBM TS3100-TS3200.

Pre-requisitos:

a.- Conocer el Hardware de nuestra librería de cintas: Modelo, Serial Number, FW version numbers de la librería y de los drives. Saber si tenemos drives Full Hight (FH) o Half Hight (HH) y si su conexión es SAS (directa) o FC (fibra SAN).

[Nota: si tenemos una TS3100, podemos tener 1 drive FH o 2 HH, si es una TS3200, podemos tener 2 drives FH o 4 HH].  Para conocer mejor los detalles del HW de cada librería, revisar sus datos técnicos en la web de Storage de IBM:

http://www-03.ibm.com/systems/storage/tape/ts3100

http://www-03.ibm.com/systems/storage/tape/ts3200

003_modelfw

b.- Bajar el pack de FW de la librería de “IBM Download Center”, el cual incluye tanto el FW de la librería, como el FW de los drives: se debe siempre instalar el pack, ya que se comprueba en los laboratorios de IBM para que la version del FW de los drives funcione correctamente junto con el FW de la librería, y actualizar el FW de la librería o de los drives por separado no está recomendado (a no ser que se reemplace un drive, en cuyo caso su nivel de FW se debe poner al mismo que el resto de drives en la librería -mismo baselevel-).

  • Desde Fix Central, seleccionar las siguientes opciones:

001_fix_central

  • escoger el modelo y versión de pack FW correcto para tu librería:

002_fix_central

c.- Leer el fichero README del pack de actualización de FW por si vienen instrucciones especiales que puedan ser diferentes de las especificadas en este documento.

d.- Disponer de los usuarios de la librería:

· user  (este usuario es para operadores, y no permite actualizar FW).
· admin (en realidad solo se necesita este usuario, pero éste es un buen momento para verificar si tenemos todos los usuarios registrados. por defecto admin/secure para FW posterior a la v1.90 y admin/adm001 para FW anterior).
· service (probar con: service/sev001 para TS3100 y service/Sev001 para TS3200 -Unconfirmed-)

Si no tenemos la contraseña de “admin”, seguir la siguiente documentación oficial de IBM para devolverlo a valores de fábrica:

http://www-01.ibm.com/support/docview.wss?uid=ssg1S1003110

e.- Inhabilitar el uso de la librería desde nuestro servidor/software de backups, ya que si los drives o el brazo robótico están en uso, y la actualización de FW reinicia la librería, los dispositivos en uso pueden estropearse (si un drive usando una cinta se reinicia, la cinta se quedará encajada dentro del drive y se perderá el drive y la cinta -en cuyo caso, abrá que abrir caso a soporte HW IBM-).

 

Procedimiento:

1.- Es buena idea el configurar las alertas por email de la librería de cintas, ya que si la actualización FW falla, o la ventana del navegador se cuelga, recibiremos una notificación por email de los fallos o sucesos a nuestro correo en el PC, portátil o móvil (muy útil y recomendado).

2.- Primero se actualiza el FW de la librería  luego el de los drives, y solo se pueden actualizar de uno en uno. El proceso comprende la subida del fichero de FW primero al dispositivo, y luego su actualización. Ya que estos envíos se hacen a través de interfaces de red a 100 Mbps, son muy lentos y en ocasiones la conexión se cae; cuando esto pasa, falla la actualización del FW, en cuyo caso la probaremos de nuevo, hasta que funcione correctamente (o mejoramos la estabilidad de la conexión).

10_tape_drive_upgrade

 

Verificar que el status de la librería y los drives están en Ready o Idle, y no en reading, writing, loading, unloading, inventory.

Para actualizar el FW, ir a > Service Library > Upgrade Firmware, seleccionar Choose File desde la sección “Upgrade Library Firmware”. Cargamos el fichero .fbi con el FW y pulsamos el botón “Update”.

Comprobaremos el estado de la actualización revisando primero la subida del FW a la librería (mirando la barra de estado en la parte inferior de la ventana) y luego la carga al dispositivo revisando la sección “System Status” a la derecha.

Una vez actualizado el FW de la librería, procederemos a subir el FW de cada drive, siguiendo el mismo procedimiento, pero seleccionando los ficheros .fmrz apropiados para nuestros drives (FH/HH/SAS/FC).

12_tape_drive_upgrade

14_tape_library-drives_upgraded

3.- Una vez finalizado todas las actualizaciones de FWs, hay que probar los drives, el brazo robótico y revisar los logs por errores (una vez revisado todo OK, podemos borrar los logs, para tener el sistema estable y controlado, o dejarlos tal cual por motivos de auditoría).

Para comprobar la librería, podemos lanzar movimientos de cintas desde el panel de control de la librería, o desde el GUI, pero lo mejor es lanzar algún proceso de inventario, consolidación de cintas o traspaso de datos entre cintas desde el software de backup.

4.- Actualizar nuestros sistemas de monitorización (Nagios, Zabbix, Netcool, etc) con el MIB adjunto al FW de la librería, ya que cada actualización de FW de un dispositivo HW cambia los OIDs a monitorizar por SNMP, por lo que hay que actualizar el nuevo MIB, y reconfigurar los OIDs o Trap Events que pudiéramos tener monitorizados por los nuevos.

Notas:

No es necesario realizar actualizaciones de FW correlativas para llegar a la última versión disponible, se puede hacer directamente la subida a la última versión, no obstante el procedimiento recomendado por IBM es subir de versión en versión, paso a paso.

Al hacer la actualización al último nivel disponible, podremos ahorrarnos un montón de tiempo, ya que las actualizaciones (especialmente las de los drives) son lentas y se tarda mucho tiempo, tiempo en el cual la librería no está operativa para el software de backups. (Puede minimizarse el tiempo actualizando la librería y 1 drive, devolver el acceso al software de backup para dicho drive, y a medida que vamos actualizando cada drive, devolver el acceso al software, drive a drive).

En el caso de que la subida directa al último FW falle, probaremos el método recomendado por IBM de subir versión a versión (lógicamente, cuando el atajo no te lleva donde pensabas, lo mejor es por el camino largo y tortuoso pero seguro…).

Las actualizaciones firmware del hardware de almacenamiento enterprise son muy seguras y rara vez fallan hasta tal punto de dejar el dispositivo offline (siempre y cuando se hayan seguido las instrucciones dadas en esta guía, recordar que si a la librería se le da orden de efectuar cualquier acción de backup/restore mientras se está actualizando la librería, es muy posible que después de actualizarse se reinicie y nos cause una avería HW, perdiendo uno o varios drives y cintas, así que tener especial CUIDADO!).

-Para que no exista afectación alguna a los sistemas productivos siempre se aconseja realizar las intervenciones fuera de horas de afectación al negocio (te ahorrarás sorpresas, dolores de cabeza, y trabajarás de manera mas profesional).-

 


Leave a comment

: Conceptos de Almacenamiento : Parte II

Esta es la 2ª parte de una serie de artículos sobre el almacenamiento enterprise en el mundo IT empresarial.

Tabla de Contenido

Cabinas All Flash
Almacenamiento Virtualizado
por Hardware
por Software
VMware VSAN

 
Cabinas All Flash

Cabinas All Flash son la última generación de cabinas de almacenamiento disponible, como su nombre indica, usan exclusivamente discos SSD y su arquitectura está diseñada para producir y soportar I/O extrema (son las cabinas que proporcionan el rendimiento de IOPs mas alto del mercado).

Técnicamente son cabinas de almacenamiento usando SSDs en vez de discos duros, no obstante y como los SSDs tienen requerimientos diferentes de los HDs convencionales (diferente desgaste, no generan ruido, diferente consumo energético y disipación de calor, etc), estas cabinas suelen utilizar protocolos RAID modificados junto con diseños de caché y buses internos mejorados para esta infraestructura.

Ejemplos de estos dispositivos hardware son: Oracle FS1, EMC XtremIO, IBM FlashSystem, Pure Storage FlashArray.

 
Almacenamiento Virtualizado

por Hardware

Algunos proveedores de almacenamiento disponen de virtualizadores de almacenamiento, los cuales actúan como una capa extra de virtualización por encima de las cabinas de almacenamiento convencionales, haciendo posible el uso y gestión de cabinas de almacenamiento de IBM, HP, EMC, Oracle, NetApp, etcétera, y dar y tratar LUNs desde estas cabinas como si fueran un solo dispositivo de almacenamiento.

De hecho, podríamos decir que la virtualización de almacenamiento es a los cabinas de almacenamiento, lo que una cabina de almacenamiento es a los discos duros:
una forma de proporcionar una capa de gestión por encima de varios dispositivos menos inteligentes para poder hacerlos funcionar en concordancia y proporcionar resiliencia, rendimiento, capacidad, consolidación, gestión y funcionalidades extendidas.

Ejemplos son: IBM SAN Volume Controller (IBM SVC), EMC VPLEX, Hitachi Virtual Storage, NetApp FlexVol.

 

por Software

Almacenamiento Virtualizado por Software, o Software Defined Storage (SDS) son productos los cuales consiguen virtualizar almacenamiento de diferentes fuentes para poderlas hacer funcionar como una sola.
Por lo general usan el almacenamiento local presente en varios servidores para usarlos como almacenamiento distribuido,
haciendo un muy buen uso del espacio desperdiciado por la mayoría de servidores.

Existen varios productos de este tipo, en constante evolución debido a su naturaleza software, y de muy diferente alcance e infraestructura entre ellos.

Ejemplos son VMware VSAN, DataCore SANsymphony, EMC ViPR.

 
VMware VSAN

Virtualizador Software de VMware, no obstante vSAN se instala conjuntamente con Sphere ESXi como una capa para proporcionar almacenamiento virtualizado y distribuido al sistema operativo ESXi.

Con vSAN, sistemas con un numero de discos de discos duros y SSDs, junto con procesadores multicore pueden formar parte de un producto SAN considerable construido bajo las ventajas habituales de VMware.

vSAN requiere un numero mínimo de 2 servidores físicos (3 recomendados), cada uno con 1 SSD y 1 HD, y puede usar gran numero de SSDs y HDs para proporcionar un producto de almacenamiento de gran capacidad y rendimiento, eliminando la necesidad de añadir sistemas físicos de almacenamiento (nos ahorramos la NAS o SAN).

En la última versión se han añadido opciones avanzadas de almacenamiento como Compresión, Deduplicación, Stretched Cluster, All-Flash y soporte de diferentes algoritmos RAID.

Es un producto que VMware continúa mejorando y para el cual se ofrecen constantes mejoras, sencillo de administrar y actualizar.

vSAN es mas barato que la combinación tradicional de SAN/Fabric/Switches de Fibra, especialmente cuando calculamos su precio a un plazo de 4 años junto con soporte y mantenimiento hardware.

Es una buena opción para resiliencia y velocidad: en una SAN de fibra, habitualmente tenemos 1 cabina con sus 2 controladoras, por lo que para maximizar resiliencia, se necesitan 2 cabinas y 2 switches de fibra, lo cual dispara el coste.
Si comparamos este setup contra 3 servidores con 2 SSD y 4 HD cada uno, y dos switches de 10GB, enseguida podemos ver el ahorro en costes asociado.

vSAN escala desde 2 nodos, pero lo mas coherente es empezar con 3 nodos, y a medida que se necesite mas espacio, potencia o resiliencia, añadir mas nodos.

 


2 Comments

: Conceptos de Almacenamiento : Parte I

Más o menos todo el mundo en el mercado de IT entiende los conceptos básicos de
redes de comunicaciones, sin embargo, cuando empezamos a hablar de redes de
almacenamiento, las cosas se empiezan a difuminar, y aquí es donde me gustaría
ayudar.

Este artículo está escrito para explicar los conceptos más comunes en el espacio
de almacenamiento enterprise de IT, ya que hoy día nos encontramos una y otra vez
con los términos: virtualización, almacenamiento, SAN, NAS, RAID, almacenamiento
virtualizado, deduplicación de datos, zoning, etc.

En principio publicaré el artículo en 3 partes, a no ser que me de para publicar
una 4ª…

Tabla de Contenido

Cabina de Almacenamiento / Cabina de Discos
SAN
SAN Fabric
FC Switch Zoning
NAS
Almacenamiento Híbrido o Unificado

Cabina de Almacenamiento / Cabina de Discos

Una Cabina de Almacenamiento es un dispositivo hardware con soporte para un
elevado número de discos duros, y una controladora de discos para poder efectuar
agrupaciones de discos y presentar varios discos como uno solo, ofreciendo
ventajas tales como: mejor rendimiento, prevención de fallos y protección de
pérdida de datos.

Hoy en día los dispositivos de almacenamiento modernos, ya no son referidos por
los fabricantes como cabinas de almacenamiento o cabinas de discos, ya que han
evolucionado y han mutado su nombre en dicha evolución.

Sus variantes modernas son conocidas como Sistemas de Almacenamiento Unificado,
Almacenamiento Virtualizado, Enterprise Storage, etc.

Las primeras cabinas de almacenamiento soportaban agrupaciones de discos RAID y
conectaban a los servidores directamente por conexiones SCSI o similar (ESCON,
FICON, SSA, Infiniband).

SAN_Iji_01

SAN

Una SAN o Storage Area Network, es en su diseño mas básico, una cabina de
almacenamiento con adaptadores de fibra o HBAs (Host Bus Adapters) para proveer
la cabina con conexiones FC (Fiber Channel).

Una SAN puede ser conectada directamente a unos pocos servidores, no obstante el
setup mas corriente es conectar una SAN a un switch de fibra FC y conectar el
switch SAN a varios servidores, formando un fabric.

Una cabina SAN tiene un sistema operativo embebido construido específicamente para
almacenamiento (el cual puede ser basado en Linux, AIX, Windows, etc) instalado
sobre 2 controladoras de almacenamiento formando un clúster activo-pasivo, donde
cada controladora tiene al menos 2 conexiones HBAs, ofreciendo un minimo de 4
conexiones FC para poder ofrecer protección de fallo de caminos múltiples
(multiple path failover).

 

SAN Fabric

SAN Fabric o Switched Fabric es la red formada por cabinas de almacenamiento,
switches y servidores interconectados mediante fibras FC.

Un SAN Fabric se construye como mínimo con 1 cabina SAN (denominado host de
almacenamiento), conectado a 1 switch SAN de fibra, y varios servidores
(denominados clientes de almacenamiento) conectados al switch de fibra.

Si conectamos servidores directamente a una cabina SAN, entonces solamente
podremos conectar 2 servidores con multipath dual, o podremos conectar 4
servidores con 1 única conexión. Estos setups pueden hacerse en PYMES, pero no
es lo normal ni lo recomendado, aunque suele hacerse para ahorrarse los
switches FC.

Si conectamos servidores a una SAN utilizando el setup recomendado (todo
redundado: 2 ports FC por HBA, 2 switches SAN), podremos usar tantas conexiones
como soporte el switch o se tengan licenciadas por switch.

 

Zoning de Switch FC / Creación de Zonas de Switch FC

Una vez tenemos el cableado efectuado, hay que crear las zonas en los switches,
para crear zonas de red entre 1 adaptador cliente a 2 adaptadores host, ya que
cada adaptador cliente (Puerto HBA de cada servidor), tiene que verse con 2
puertos host (2 puertos de SAN) por cada switch; creando una conexión al switch
desde el HBA, pero por 2 caminos diferentes a las controladoras de la cabina SAN.

Ya que las HBAs de los servidores tienen por lo menos 2 puertos, se puede conectar
a 2 switches SAN diferentes, para proporcionar 2 conexiones con diferentes caminos
o PATHs. Usando 2 HBAs, tendremos 4 conexiones en total a la SAN, usando multipath
Existen 2 tipos de zoning (antiguamente llamados soft y hard zoning):
Zonas por Puertos (Port Based Zoning) y Zonas por WWN (WWN Based Zoning).

Zonas por Puertos define los puertos que forman parte de la zona, por lo que si
en el futuro hay que reemplazar un latiguillo de fibra o un HBA, bastará con
reconectar la FC al mismo puerto que el original.

La ventaja de este zoning es que es rápido de implementar (no necesitas conocer
los WWNs), y que cualquiera puede reemplazar la fibra y los HBAs.
La desventaja de este zoning, es que si falla un puerto del switch, un
administrador de almacenamiento deberá modificar la zona para eliminar el puerto
fallido, y añadir el nuevo puerto que lo reemplazará.

Zonas por WWN define las zonas según los WWNs que pertecen a ellas (WWN son los
equivalentes en el mundo de la fibra a las MACs de los interfaces de red).
A todos los WWNs se les asigna un Alias para poder referenciarlo de manera
descriptiva, y las redes se definen agregando los alias de cada WWN a las zonas.

La ventaja de este zoning es que los latiguillos de fibra pueden ser conectados
en cualquier puerto del switch, y de hecho éste tipo de zoning es el recomendado
por el fabricante como Best Practice (el switch se encarga de todo, y si
extendemos el fabric a otro switch, el 2º switch también podrá ser usado).

El único inconveniente de este zoning es que si falla una HBA y hay que
reemplazarla, el administrador de almacenamiento tendrá que redefinir el alias del
WWN de la HBA antigua sobre el nuevo WWN, no obstante esta operación es trivial.

 

NAS

Una NAS o Network Attached Storage, es una cabina de almacenamiento con interfaces
Gb ethernet o FoE (Fibra sobre Ethernet) para proveer almacenamiento de red por
protocolos CIFS, NFS o iSCSI.

Una NAS se puede construir en casa, ya que es sencillamente el caso de montar un
servidor con discos, y luego usar un OS para servir volúmenes lógicos como LUNs
via CIFS, SMB, NFS o iSCSI.

Para esto se puede usar Windows Server 2008 y 2012 ya que tienen un ROL de
almacenamiento para servir discos como NFS o iSCSI, o se puede usar una variedad
de distribuciones Linux específicas para NAS como: FreeNAS, Nas4Free, OpenFiler,
etc.

La Linux distro NanoNAS puede arrancarse desde CD o USB en un servidor pequeño
(o un PC) ya que se ejecutan enteramente en memoria RAM como un RAM-Disk de 4MB,
por lo que es el entorno ideal para hacer pequeñas NAS appliances (para un
laboratorio en casa, por ejemplo).

 

Almacenamiento Híbrido o Unificado

Para unificar almacenamiento y dar lo mejor de ambos mundos, los fabricantes
ofrecen hoy día Cabinas de Almacenamiento Unificado o Híbrido, las cuales tienen
la capacidad de servir LUNs como Fibra (actuando de SAN), CIFS, SMB, NFS o iSCSI
(actuando de NAS).

Técnicamente son SANs, pero con controladoras de almacenamiento adicionales para
poder hacer de pasarela o gateways de las LUNs SAN como volúmenes NAS.

De esta forma se obtiene la funcionalidad de SAN y NAS, sirviendo almacenamiento
virtualizado y podiendose usar además para consolidar servidores de ficheros,
algunos modelos incluso ofrecen funciones de servidor adicionales como software
de backup, deduplicación, compresión y anti-virus.
Ejemplos de cabinas híbridas son: EMC VNX/VNXe, Oracle ZFS Storage Appliance,
IBM Storwize V7000, Hitachi Unified Storage 100.

 


Leave a comment

HowTo: Install a Fibre Switch (Brocade) in 12 to 15 steps.

Instructions to install a Brocade switch (in our days most of SAN fibre switches are Brocade: IBM, EMC, DELL, FUJITSU, HP, HITACHI, NETAPP, SUN, and ORACLE use OEMized Brocade Switches, and Brocade also sells switches directly, other manufacturers of fibre switches are QLogic and CISCO).

We assume that you have unboxed the switch, put in the rails, mounted it on the rack, populated the FC ports with the SFPs that came in the box, and put the cable or cables and switched it on.

To do the Initial configuration of the switch, We will need the following:

  • A laptop with windows, where we will install the EzSwitchSetup software that comes in a CD with the switch.
  • An Ethernet (normal – no crossover needed) cable to plug directly to the switch on the Management port (We can also use the Serial cable that comes included with some switches, but it’s a lot easier with a CAT5 cable).
  • And now to sit down for a minute and think: prepare/collect the following information to use on the initial switch config:

MAC WWN: _____________________
Hostname: _____________________
IP: _____________________
Mask: _____________________
Gateway: _____________________
NTP Server: _____________________
root passwd: _____________________
factory passwd: _____________________
admin passwd: _____________________
user passwd: _____________________

Once we have this details and prerequisites, we can carry on with the initial config:

SAN_SW1

1.- We get our laptop and connect it directly to the ethernet management port of our first switch.

2.- Start EzSwitchSetup software

3.- Select the first part of the switch’s MAC address from the drop down list

4.- Complete the MAC address withthe last 3 bytes of our model (it will be printed on a sticker on the switch, or on a plastic tongue on the front left side).

5.- Once our switch is identified, we can proceed to change it’s IP address (the switch will show as default values):

IP: 10.77.77.77
MASK: 255.255.255.0
GTW: 0.0.0.0
IP6:

6.- Once the switch has been successfully changed to it’s final IP, we will unplug our laptop, and connect the switch to it`s final network connection.

7.- Now connect remotely to the switch as admin, and when presented with the message:

Please change passwords for switch default accounts now.
Use Control-C to exit or press 'Enter' key to proceed.

Warning: Access to the Root and Factory accounts may be required for
proper support of the switch. Please ensure the Root and Factory
passwords are documented in a secure location. Recovery of a lost Root
or Factory password will result in fabric downtime.

for user - root
Changing password for root
Enter new password:
Re-type new password:
passwd: all authentication tokens updated successfully
Please change passwords for switch default accounts now.
for user - factory
Changing password for factory
Enter new password:
Re-type new password:
passwd: all authentication tokens updated successfully
Please change passwords for switch default accounts now.
for user - admin
Changing password for admin
Enter new password:
Re-type new password:
passwd: all authentication tokens updated successfully
Please change passwords for switch default accounts now.
for user - user
Changing password for user
Enter new password:
Re-type new password:
passwd: all authentication tokens updated successfully
Saving passwords to stable storage.
Passwords saved to stable storage successfully

8.- Change the default 10 minute timeout value to 60 minutes:

timeout 60

9.- Configure our switch hostname with the command:

switchname $HOSTNAME

10.- Configure the timezone:

tstimezone --interactive

11.- Configure the time and the NTP server:

date "0213101215"
Fri Feb 13 10:12:59 CET 2015

Note: Date and time are specified as a string in the format: “mmddhhmmyy” (month day hour minutes year).

tsClockServer "$NTP_IP"
Updating Clock Server configuration...done.
Updated with the NTP servers

12.- Wait 5 minutes and verify the time has adjusted accordingly:

date
Fri Feb 13 10:12:59 CET 2015

13- Reboot (Note: this step is not really needed, I do it to verify the boot process and that settings are applied correctly):

reboot

14.- Extra step: If you want to be thorough, you can Check the SFPs are correct with the provided FC Loopback.

For that you need to plug a loopback in a SFP port and issue the command:

switchshow

You can change the loopback to another port and issue switchshow again, until we have tried all the SFPs. As usually you will setup switches in pairs, you will have 2 loopbacks, wich makes the check quicker.

15.- As a Final Check, issue the command:

switchstatusshow

and verify that all the hardware sensors and that the switchstate are all in HEALTHY status, and none of them are in MARGINAL.

 

And that’s it, the switch is now configured, and ready to plug the fibres to the SAN and the Servers, then the zoning will be needed, and maybe extend the fabric to another switch… but that’s material for another post… Thanx for reading!