Huawei Quorum Server añadir SNs

Huawei Quorum Server añadir SNs

Durante la realización de la configuracion del servidor Quorum Server tenemos que añadir los SNs de las cabinas intervinientes.

Nos conectariamos a las cabinas y sacamos el identificador SN

admin:/>show system general

 

System Name         : Huawei.Storage

Health Status       : Normal

Running Status      : Normal

Total Capacity      : 11.043TB

  SN                  : 2102350BSB10GA000012

Location            : a

Product Model       : 5600 V3

Product Version     : V300R003C00

High Water Level(%) : 80

Low Water Level(%)  : 20

WWN                 : 210048fd8e04c884

Time                : 2017-06-16/22:25:30 UTC+08:00

Patch Version       : SPC100 SPH101

admin:/>

  1. Conectarse al servidor quorum y ejecutar qsadmin para abrir el CLI.
  2. En el CLI,  ejecutar el comando show white_list y revisar que la lista contiene los SN correctos de las cabinas.

admin:/>show white_list

State     : Enabled

 

ID           ESN

—-          ——————-

1                    123456789

  1. Si los SN no están no están en la lista, añadirlos con el comando add white_listsn=SN

admin:/>add white_list sn=123456789

Command executed successfully

Y ya tenemos los SNs correctamente introducidos.

Saludos.

 

Ping desde Huawei OceanStor 5500 v3

Ping desde Huawei OceanStor 5500 v3

Parece algo sencillo (que lo es), pero hay que acordarse, y yo, el otro dia no me acordaba, por tanto pongo como realizar un ping para comprobar conectividades desde la cabina Huawei OceanStor 5500 v3.

Podemos hacer ping desde minisystem.

  1. Tras logarse como admin,

1

NOTA: (si nos logueamos como admin, desde esta consola no podemos hacer un ping)

  1. Cambiar como developer

admin:/>change user_mode current_mode user_mode=developer

2

  1. Entrar en modo minisystem

developer:/>minisystem

3

4

Y ya podemos lanzar pings como vemos en la imagen superior.

Saludos

COMs no detectados

COMs no detectados

El objetivo es que en un servidor que tiene 4 puertos COM fisicamente, y que tiene una aplicación que por ejemplo controla un horno, y que ese sistema operativo es windows 2000, podamos solucionar el problema de “porqué no podemos ver mas que solo 2 puertos COM“.

Entendemos que hemos “virtualizado” ese servidor físico, y ahora tenemos una máquina virtual corriendo sobre “vmware workstation 6”, nuestro objetivo es ver esos puertos adicionales en la máquina virtual, y al final testear que haciendo un  hyperterminal, nos conectamos sin problemas por todos los puertos.

  1. Primero que la máquina virtual tenga las vmware tools bien instaladas.
  2. set devmgr_show_nonpresent_devices=1
    Arrancamos esa máquina virtual y ejecutamos el comando anterior.
  3. Vamos al administrador de dispositivos
  4. View, show hidden devices
  5. Desinstalamos los puertos COM que veamos
  6. Apagamos la máquina virtual
  7. Arrancamos la máquina virtual , pero antes entramos a la BIOS
  8. BIOS Advanced settings > I/O Configuration
  9. Ponemos en ENABLED los serial port.
  10. F10 y guardamos
  11. Hacemos un apagado HARD para que no continue arrancando

Ahora lo que debemos hacer es ,  apuntar el dato de IRQ que aparece al arrancar el servidor físico para cada puerto COM.

Después de todo esto lo mas importante es editar el archivo .vmx de la máquina virtual y añadimos lo siguiente:

serial0.present = “TRUE”
serial0.fileName = “COM1”
serial0.startConnected = “TRUE”
serial0.irq = 4
serial0.baseAddr = 0x3f8

serial1.present = “TRUE”
serial1.fileName = “COM2”
serial1.startConnected = “TRUE”
serial1.irq = 3
serial1.baseAddr = 0x2f8

serial2.present = “TRUE”
serial2.fileName = “COM3”
serial2.startConnected = “TRUE”
serial2.irq = 4
serial2.baseAddr = 0x3e8

serial3.present = “TRUE”
serial3.fileName = “COM4”
serial3.startConnected = “TRUE”
serial3.irq = 3
serial3.baseAddr = 0x2e8

Muy importante fijarse si el identificador numérico de IRQ corresponde con lo que hemos visto en la BIOS del servidor físico, lo mismo para la línea .baseAddr.

Guardamos y arrancamos la máquina.

Vamos al administrador de dispositivos.

Pulsamos en ADD HARDWARE , (ya que en la lista no apareceran mas que dos puertos COM), (si que veremos en la esquina inferior derecha de la máquina virtual iconos de puertos COM nuevos).

Una vez dado en add hardware, si vamos al administrador de dispositivos aparecerán los puertos COM (los 4).

Ahora, para probarlo, simplemente lanzamos un hyperterminal contra los diferentes puertos COM, por ejemplo conectándonos a un firewall con el cable correspondiente.

Un saludo !!

 

 

 

 

 

 

 

 

Exchange 2010 no saca mails

Exchange 2010 no saca mails

Entre las cosas que nos puede ocurrir cuando administramos un servidor de correo, en este caso exchange 2010, es que mensajes que enviamos no llegan a su destino, es mas, ni siquiera salen del servidor.

De una manera muy sencilla vamos a ver los mensajes que están en cola a través de la herramienta de PowerShell que viene al instalar exchange 2010:

exchange-2010-no-saca-mensajes-2

get-queue, es decir, ver la cola.

Vemos que en la lista figura intentos de conexión dns , por tanto vemos que es algo relacionado con DNS.

Vemos el  número de mensajes que están en cola, y los dominios, por ejemplo hotmail tiene 10 en cola.

Para solucionar este problema vamos a SEND CONNECTORS , luego a la pestaña NETWORK, y ahí debemos marcar “Use de external DNS lookup settings on the transport server”

exchange-no-saca-1

Después de estos los correos salen correctamente.

¿Porqué esta opción?.

Para especificar si deseamos utilizar los servidores DNS que están configurados en un adaptador de red instalado en este servidor, o para utilizar servidores DNS específicos al resolver las direcciones de los servidores de correo para la entrega de correo externa. Los servidores DNS externos son utilizados por conectores de envío que están configurados para utilizar la configuración de búsqueda DNS externa en el servidor de transporte. Cuando los mensajes se encaminan a estos conectores de envío, la configuración de búsqueda de DNS externa que se configuran para los servidores de origen se utiliza para resolver direcciones IP para el destino de entrega.

Un saludo.

vSphere 6.5 Prioridades Reinicio

vSphere 6.5 Prioridades de Reinicio

Estamos investigando las nuevas funcionalidades de la nueva version de vsphere 6.5, en este caso vamos a hablar de las novedades en las prioridades de reinicio de las máquinas virtuales.

Para hablar de prioridades de reinicio de las máquinas virtuales, tenemos que hablar de HA.

En versiones anteriores teníamos lo siguiente:

  • En las propiedades del cluster podiamos definir un nivel de prioridad PREDETERMINADO PARA EL CLUSTER (3 niveles, alto , medio y bajo)
  • Cuando HA estaba activado, podiamos ver las lista de máquinas virtuales, y podiamos ir una a una y cambiar esa prioridad, por ejemplo a una ponerle alto y a otra prioridad baja, o simplemente dejar el nivel de prioridad a lo que de forma predeterminada decia el cluster.

Estas opciones la verdad, no servian para mucho, ya que, habia veces que máquinas con prioridad baja de arrancaban antes, y , además, es tan rápido el reinicio que no sabes cual es la que arrancó antes.

Ahora parece que lo que antes no servia para nada, en esta ocasión si podemos sacar partido y un muy buen partido además.

Os enseño dónde están estas opciones, ahora hay mas tipos de prioridades, veamos:

1

Lo primero es pinchar sobre nuestro CLUSTER y luego a la derecha sobre la pestaña CONFIGURAR.

Primero vamos a ver dónde está la opción que PRIORIDAD de reinicio POR DEFECTO EN EL CLUSTER:

Pulsamos en vsphere availability, luego en el boton EDITAR, errores y respuestas a la izquierda.

2

Después de esto debemos desplegar fijándonos en las flechitas, RESPUESTA DE ERROR DE HOST.

 

3

Ahí marcamos la opción de reiniciar las máquinas virtuales y como vemos tenemos un desplegable para fijar la prioridad de reinicio PREDETERMINADA en el cluster.

Bien, ahora que hemos visto dónde está, vamos a ver cómo podemos hacer para establecer esta prioridad para cada máquina.

Nos aseguramos de estar pinchamos encima de “vsphere availability” (a la izquierda), y  vamos bajando buscando la opción llamada “reemplazos de máquina virtual“.

4

Pulsamos en AGREGAR, y de esta manera nos aparecen opciones para seleccionar máquinas virtuales y establecer niveles de prioridad, tal y como vemos:

5

Con la flechita del + añadimos máquinas virtuales, en este caso añado la máquina llamada 1 y aceptamos.

6

Ahi a la izquierda vamos a “prioridad de inicio de la máquina virtual”, y ahi tenemos las opciones nuevas, como vemos hay mas que tres, y además de ello tenemos mas configuraciones que podemos hacer, por ejemplo un retraso adicional.

Eso es todo, vamos mejorando en las prioridades de reinicio que, esta vez van a ser mas controladas.

Un saludo.

 

 

 

 

Ilo reset password

Ilo reset password

Si nos ocurre que no recordamos, o no está documentado cual es el usuario y password de la tarjeta de administración de HP ILO, es muy sencillo restablecer y poner una  nueva contraseña.

El usuario es : administrator

Para poner una nueva contraseña, simplemente tenemos que crear un fichero .xml , editarlo con la password que deseamos , y aplicarlo.

Un ejemplo de .xml seria:

<RIBCL VERSION=”2.0″>
<LOGIN USER_LOGIN=”Administrator” PASSWORD=”unknown”>
<USER_INFO MODE=”write”>
<MOD_USER USER_LOGIN=”Administrator”>
<PASSWORD value=”aquimetemoslapassword“/>
</MOD_USER>
</USER_INFO>
</LOGIN>
</RIBCL>
Este fichero es un archivo de texto vulgar en donde lo guardamos con extension .xml
Para aplicar este cambio:
Debemos tener instaladas las herramientas de HP (mas que nada porque sino no tendremos la utilidad hponcfg), es decir, que si tenemos una .iso de esxi personalizado de HP ya estarán , sino habria que instalarlas, en otro documento vemos donde descargarlas e instalarlas, vamos a suponer que ya las tenemos.
Una vez que tenemos este fichero lo debemos dejar en:
Suponemos que nuestro servidor corre un vmware esxi.
# /opt/hp/tools/
Con un winscp lo podemos dejar en esa ruta.
Ahora lo aplicamos.
# /opt/hp/tools/hponcfg -f fichero.xml
Una vez ejecutado nos saldrá algo parecido a esto:
HP Lights-Out Online Configuration utility
Version 4.4-0 (c) Hewlett-Packard Company, 2014
Firmware Revision = 1.85 Device type = iLO 3 Driver name = hpilo
iLO IP Address: 172.16.4.1
Script succeeded
Después de esto mediante https://ipilo ya podremos acceder.
Un saludo

Logon Invisible

Logon Invisible

Me encuentro con  un servidor con Windows 2003 R2 SP2, que al tratar de iniciar sesión (tanto por RDP como en local), NO VEO en pantalla cuando escribo el usuario y la contraseña, es decir, no veo estos campos.

Muy pero que muy… incómodo, asi que me cansé y me puse a investigar el porqué.

La solución es muy sencilla y es la siguiente:

Nos tenemos que ir a una máquina que tenga el  mismo sistema operativo y vamos a la siguiente clave del registro:

HKEY_USERS\. Default \Control Panel\Colors
La exportamos.
Después, tan sencillo como importarla en nuestro servidor con problemas, cerramos sesión y todo correcto.
El porqué es sencillo, básicamente se trata de un tema de colores (como indica la clave), y, por algún motivo esto estaba variado:
El valor de datos “0 0 0” significa negro.
Lo que se agradece poder ver lo que se escribe….   🙂
Un saludo.

Eternus DX100 S3

Eternus DX100 S3

Vamos a ver como se configura la cabina Fujitsu Eternus DX100 S3 en los apartados principales , para conseguir crear datastores en una infraestructura de vmware, procedemos a la indicación de pasos a dar:

Lo básico:

La ip que tiene por defecto es http://192.168.1.1

Usuario: root

Password: root

Initial Setup:

Aqui básicamente es seguir un asistente para seleccionar el nombre al storage, cambiar las password, autenticaciones, el entorno de red.

Hay dos cosas en cuanto a los puertos traseros, hay uno que se llama MNT y otro RMT, este último es usado para el setup inicial para soporte, y MNT la ip de la cabina en la LAN.

Para estas configuraciones principales, conectariamos nuestro portátil al puerto RMT del controller 0 (CM#0).

————————————————————————

CREAR RAID GROUP

Sobre la pestaña “Raid Group”, y en la esquina superior derecha , creamos un nuevo raid group.

En este raid group es donde indicamos “el nivel de raid” que utilizara este raid group. Indicaremos tambien la capacidad de este grupo de raid.

Paso 2. crear raid group

En la imagen inferior vemos en donde le “damos un nombre”, especificamos “cuantos” raid group, el nivel de raid como deciamos , especificamos si queremos minimizar el numero de discos o priorizar la reconstruccion, y porsupuesto el tamaño que tendrá.

Paso 2. crear raid group-2

Con estos datos ya podremos crear el raid group, y por tanto los volumenes.

CREAR VOLUMENES

Creamos los volumenes que necesitemos.

Paso 1. Crear volumen

Le damos un nombre descriptivo, tamaño y el tipo (en cuanto a tipos ya veremos en qué consiste cada uno).

De forma predeterminada “standard”.

Allocation, thin.

Raid group/TPP selection, podemos seleccionarlo automático para que nos coja discos automaticamente en funcion del nivel de raid, y seleccionamos el nivel de raid.

Paso 1. Crear volumen-2

NOTA: Hot spare registration.

Tendriamos que registrar el disco destinado a spare, en DRIVES, category y pestaña component.

CREAR AFFINITY SETTINGS

Esta configuración para llevarla a cabo nos invita a realizar antes 3 configuraciones:

  1. Host group addition

Aqui debemos indicar los host que deben ver los almacenamiento, si por ejemplo los conectamos por cable SAS, deberán ver el identificador de SAS.

NOTA: Ejemplo para ver en vmware el identificador de SAS

esxcli storage core adapter list | grep lsi

esxcli

Aqui se ve el identificador que o bien tendrá que reconocer la cabina cuando pinchemos los cables sas del host a la cabina, o lo metamos manualmente en la cabina.

Podemos quitar el grep para que nos salga todo en caso de no salirnos nada en LSI.

esxcli2

Aqui por ejemplo nos aparece una controladora SAS P 421

Debemos ir a la pestaña “Connectivity”:

sas host group

Ahi podremos introducir manualmente el identificador o ver si lo ha detectado al conectarlo fisicamente.

sas host group2

Donde pone “registered and now connected” es lo que el ve fisico, y en manual input si algo no ha detectado podemos  meterlo manualmente.

Marcamos entonces en la lista las direcciones SAS de los host que nos interese meter en ese HOST GROUP.

Port Group

Aqui tenemos que especificar los puertos que vamos a utilizar en funcion de cómo estén pinchados en este caso los cables SAS.

ports

Lun Group

Aqui vamos a agrupar todas las lun en un grupo, y este grupo de lun será asignado a los host que deseemos.

PASO 5. lun group

Vamos añadiendo entonces las lun a este grupo, podemos dejar algunas y luego añadirlas mas tarde, podemos crear mas de 1 lun group.

PASO 5. lun group-2

Affinity

Aqui es donde creamos la afinidad de host utilizando los datos anteriores, es decir, le tenemos que decir :

Qué host group especifico (ya lo habiamos creado con las direcciones SAS de cada host), all. O “host CA port” (este último nos permite realizar una asociacion con el host individual).

Qué CA Port Group, (ya creado)

Qué Lun Group, (ya creado).

Con todo esto ya tendremos creada la afinidad y podremos reescanear en los host esxi para poder montar datastores.

paso 3. conectivity

Hay que pinchar encima de CONNECTIVITY para que veamos a la derecha CREATE  HOST AFFINITY.

paso 6 host affinity

Aqui vemos como si seleccionamos “host group-CA port group”, nos dará la opcion de seleccionar el “host group” que creamos anteriormente, es decir, grupo de direcciones sas de host.

Si seleccionamos “host – ca port” en lugar de Host group ca port group….

afinidades

En host, nos saca la lista de host y podemos seleccionar uno exclusivamente para el affinity.

afiniti2

En CA port, nos saca la lista de CA port fisicos para seleccionar en cual está pinchado este host.

puertos

Y por último en Lun group, seleccionamos el grupo de luns para mapear a este host en concreto.


Estos serian todos los pasos, no se nos puede olvidar también la parte de FIREWALL SETTINGS, que debemos ajustar para cada servicio:

FIREWALL

Además de esto y evidentemente verificar el apartado de networking para ajustar ips.(Aunque lo habremos hecho al principio).

RED

Un saludo,

 

 

 

Ibm V7000 Error memoria creando RAID

Ibm V7000 Error memoria creando RAID

Nos disponemos a crear un raid, (un RAID5 por ejemplo) a traves del siguiente comando en una cabina IBM STORWIZE V7000:

svctask mkarray -drive 41:26:28:77:33 -level raid5 -sparegoal 1 RAID5_SAS_10K

Nos marca el siguiente error:

1

Lo que pretendemos es crear ese raid, para ello seguimos los siguientes pasos hasta que nos da el error anterior:

V7000-2 error al asignar discos

Estamos configurando el almacenamiento interno para un raid con 23 discos .

V7000-2 error expandir agrupacion

Lo que vamos a realizar es expandir una agrupación existente con todo el bloque de discos nuevos.

Despues de esto viene el error.

error solution

La solución es tan sencilla como comprobar primeramente la memoria disponible para este proceso, “raid free memory”, en origen la memoria disponible era cero.

La aumentamos con el comando:

svctask chiogrp -feature raid -size 40 0

1

Adjunto pantallazo de “memory required” según Ibm para los diferentes servicios, en el caso de necesitar aumentar la memoria para por ejemplo Remote copy , cambiariamos raid por remote.

Antes debemos comprobar en  nuestros grupos el “status” de memoria de los servicios anteriores.

lsiogrp object_id | object_name

io_grp0   seria lo que deberiamos poner después para poder ver las asignaciones (lsiogrp io_grp0, grp1….etc)

Un saludo,