# parted /dev/sdb GNU Parted 2.1 Using /dev/sdb Welcome to GNU Parted! Type 'help' to view a list of commands. (parted) print Error: /dev/sdb: unrecognised disk label (parted) mklabel gpt (parted) print Model: Unknown (unknown) Disk /dev/sdb: 5909GB Sector size (logical/physical): 512B/512B Partition Table: gpt Number Start End Size File system Name Flags
martes, 4 de diciembre de 2012
setenforcing
setenforcing 0 | 1
jueves, 8 de noviembre de 2012
Conexion hacia el CMM por consola
Sun Blade X6250 Server Module
# ssh -l root blade_6000_cmm
Password:
Sun(TM) Integrated Lights Out Manager
Version 2.0.3.2
Copyright 2007 Sun Microsystems, Inc. All rights reserved.
Use is subject to license terms.
-> cd BL3
/CH/BL3
-> show
/CH/BL3
Targets:
SP
SEEPROM
Properties:
type = Blade
fru_part_number = 501-7376-02
fru_serial_number = 0000000-7001
fru_name = ASSY,BD,WOLF,X6250
Commands:
cd
show
-> start /CH/BL3/SP/cli
Are you sure you want to start /CH/BL3/SP/cli (y/n)? y
start: Connecting to /CH/BL3/SP/cli as user root
start: Change the "user" property to connect as a different user
root@10.11.2.123's password:
Sun Microsystems Embedded Lights Out Manager
Copyright 2006 Sun Microsystems, Inc. All rights reserved.
Firmware Version: 4.0.51
SMASH Version: v1.0.0
Hostname: SUNSP001B242D495D
IP address: 10.12.9.207
MAC address: 00:1B:24:2D:49:5D
-> show
/
Targets:
SP
SYS
CH
Properties:
Target Commands:
show
cd
-> start /SP/AgentInfo/Console
console activate successful
press ESC+( to terminate session...
x6250a console login:
# ssh -l root blade_6000_cmm
Password:
Sun(TM) Integrated Lights Out Manager
Version 2.0.3.2
Copyright 2007 Sun Microsystems, Inc. All rights reserved.
Use is subject to license terms.
-> cd BL3
/CH/BL3
-> show
/CH/BL3
Targets:
SP
SEEPROM
Properties:
type = Blade
fru_part_number = 501-7376-02
fru_serial_number = 0000000-7001
fru_name = ASSY,BD,WOLF,X6250
Commands:
cd
show
-> start /CH/BL3/SP/cli
Are you sure you want to start /CH/BL3/SP/cli (y/n)? y
start: Connecting to /CH/BL3/SP/cli as user root
start: Change the "user" property to connect as a different user
root@10.11.2.123's password:
Sun Microsystems Embedded Lights Out Manager
Copyright 2006 Sun Microsystems, Inc. All rights reserved.
Firmware Version: 4.0.51
SMASH Version: v1.0.0
Hostname: SUNSP001B242D495D
IP address: 10.12.9.207
MAC address: 00:1B:24:2D:49:5D
-> show
/
Targets:
SP
SYS
CH
Properties:
Target Commands:
show
cd
-> start /SP/AgentInfo/Console
console activate successful
press ESC+( to terminate session...
x6250a console login:
martes, 6 de noviembre de 2012
Reparar boot archive corrupto en sparc con SVM
Es comun que despues de un apagado brusco del equipo se tenga corrupto el boot-archive, existe el procedimiento para subir el equipo en modo failsafe y desde ahi efectuar la reparacion manual, pero que pasa si esta con SVM.
A continuacion estan los pasos resumidos para esta tarea:
1.- Desde el prompt del ok
ok boot -F failsafe
2.- Montar una de las vias en modo read only para copiar el archivo de configuracion del SVM hacia el sistema en modo failsafe
mount -o ro /dev/dsk/cxtxdxs0 /a
3.- Copiar lo siguiente
cp /a/kernel/drv/md.conf /kernel/drv
4.- Ejecutar el comando para que lea el archivo copiado
update_drv -f md
5.- Ahora si todo ha ido bien se puede lanzar el comando metastat para verificar el resultado de los anteriores pasos.
6.- Ya con esto se tiene plenamente identificado donde esta el metadevice que corresponde al directorio / por ejemplo si fuera d10
metasync d10
7.- Se espera que el status se el ok es decir que las dos vias esten sincronizadas
8.- Se monta el metadevice en /a
mount /dev/md/dsk/d10 /a
9.- Ahora se actualiza el boot archive con el comando bootadm con las opciones de verbosidad y -R para que todo lo haga en forma recursiva
bootadm update-archive -v -R /a
10.- Es necesario desmontar el directorio /a
11.- Finalmente hay que darle un reboot ordenado con init 6
A continuacion estan los pasos resumidos para esta tarea:
1.- Desde el prompt del ok
ok boot -F failsafe
2.- Montar una de las vias en modo read only para copiar el archivo de configuracion del SVM hacia el sistema en modo failsafe
mount -o ro /dev/dsk/cxtxdxs0 /a
3.- Copiar lo siguiente
cp /a/kernel/drv/md.conf /kernel/drv
4.- Ejecutar el comando para que lea el archivo copiado
update_drv -f md
5.- Ahora si todo ha ido bien se puede lanzar el comando metastat para verificar el resultado de los anteriores pasos.
6.- Ya con esto se tiene plenamente identificado donde esta el metadevice que corresponde al directorio / por ejemplo si fuera d10
metasync d10
7.- Se espera que el status se el ok es decir que las dos vias esten sincronizadas
8.- Se monta el metadevice en /a
mount /dev/md/dsk/d10 /a
9.- Ahora se actualiza el boot archive con el comando bootadm con las opciones de verbosidad y -R para que todo lo haga en forma recursiva
bootadm update-archive -v -R /a
10.- Es necesario desmontar el directorio /a
11.- Finalmente hay que darle un reboot ordenado con init 6
viernes, 28 de septiembre de 2012
Montar iso o DVD sobre un LDOM
Ahora toca instalar el SO sobre el ldom aqui estan los pasos breves para montar un iso sobre el dominio.
root@t5120 # ldm list
NAME STATE FLAGS CONS VCPU MEMORY UTIL UPTIME
primary active -n-cv- SP 8 2G 0.2% 21h 17m
ldg0 active -n---- 5000 8 512M 0.1% 15h 40m
ldg1 active -t---- 5001 8 512M 12% 21h 15m
ldg2 active -t---- 5002 8 512M 12% 21h 15m
root@t5120 #
Primero bajo el dominio en el cual quiero montar el SO que es el ldg1
root@t5120 # ldm stop ldg1
LDom ldg1 stopped
root@t5120 # ldm list
NAME STATE FLAGS CONS VCPU MEMORY UTIL UPTIME
primary active -n-cv- SP 8 2G 0.3% 21h 17m
ldg0 active -n---- 5000 8 512M 0.1% 15h 41m
ldg1 bound ------ 5001 8 512M
ldg2 active -t---- 5002 8 512M 12% 21h 15m
root@t5120 #
Ahora de desenlaza el dominio con el comando
root@t5120 # ldm unbind ldg1
root@t5120 # ldm list
NAME STATE FLAGS CONS VCPU MEMORY UTIL UPTIME
primary active -n-cv- SP 8 2G 2.0% 21h 19m
ldg0 active -n---- 5000 8 512M 0.1% 15h 42m
ldg2 active -t---- 5002 8 512M 12% 21h 17m
ldg1 inactive ------ 8 512M
root@t5120 #
Ahora si se puede añadir el iso desde el dominio primario
root@t5120 # ldm add-vdsdev /export/home/itc/install/V27764-01.iso iso_vol@primary-vds0
root@t5120 # ldm add-vdisk vdisk_iso iso_vol@primary-vds0 ldg1
root@t5120 #
root@t5120 # ldm bind ldg1
root@t5120 # ldm list
NAME STATE FLAGS CONS VCPU MEMORY UTIL UPTIME
primary active -n-cv- SP 8 2G 2.2% 21h 35m
ldg1 bound ------ 5000 8 512M
ldg2 active -t---- 5002 8 512M 12% 21h 32m
ldg0 inactive ------ 8 512M
root@t5120 #
root@t5120 # ldm start ldg1
LDom ldg1 started
root@t5120 # ldm list
NAME STATE FLAGS CONS VCPU MEMORY UTIL UPTIME
primary active -n-cv- SP 8 2G 0.2% 21h 35m
ldg1 active -t---- 5000 8 512M 4.6% 2s
ldg2 active -t---- 5002 8 512M 12% 21h 33m
ldg0 inactive ------ 8 512M
root@t5120 #
Nos conectamos al dominio y se verifica el est
{0} ok banner
SPARC Enterprise T5120, No Keyboard
Copyright (c) 1998, 2011, Oracle and/or its affiliates. All rights reserved.
OpenBoot 4.33.0.b, 512 MB memory available, Serial #83525636.
Ethernet address 0:14:4f:fa:80:4, Host ID: 84fa8004.
{0} ok devalias
vdisk_iso /virtual-devices@100/channel-devices@200/disk@1
vdisk0 /virtual-devices@100/channel-devices@200/disk@0
vnet0 /virtual-devices@100/channel-devices@200/network@0
net /virtual-devices@100/channel-devices@200/network@0
disk /virtual-devices@100/channel-devices@200/disk@0
virtual-console /virtual-devices/console@1
name aliases
{0} ok
En esta instancia ya se puede levantar desde el iso virtual
{0} ok boot cdrom
Boot device: /virtual-devices@100/channel-devices@200/disk@0 File and args: cdrom
Bad magic number in disk label
ERROR: /virtual-devices@100/channel-devices@200/disk@0: Can't open disk label package
ERROR: boot-read fail
Can't open boot device
{0} ok boot vdisk_iso
Boot device: /virtual-devices@100/channel-devices@200/disk@1 File and args:
SunOS Release 5.10 Version Generic_147440-01 64-bit
Copyright (c) 1983, 2011, Oracle and/or its affiliates. All rights reserved.
Configuring devices.
Using RPC Bootparams for network configuration information.
Attempting to configure interface vnet0...
Para remover hay que seguir el siguiente orden.
1 Parar el dominio
2 Desenlazar el dominio
3 Remover el disco con el comando
ldm remove-vdisk [-f] disk-name ldom
root@t5120 # ldm remove-vdisk vdisk_iso ldg0
4 Remover el device entregado al dominio con:
ldm remove-vdsdev [-f] volume-name@service-n
root@t5120 # ldm remove-vdsdev iso_vol@primary-vds0
root@t5120 #
Thats all!!
jueves, 27 de septiembre de 2012
Montar USB sobre solaris 10
Con los memory stick de hasta 4 gigas nunca se tuvieron problemas y eso que siempre se utilizaron de distintos fabricantes el procedimiento clasico era el siguente:
Aplicar el comando volcheck en forma directa sobre Solaris 10, con solaris 9 habia que hacer el adicional de bajar y subir el demonio volmgt y siempre fue suficiente.
root@t5120 # volcheck
root@t5120 # /etc/init.d/volmgt stop
root@t5120 # /etc/init.d/volmgt start
volume management starting.
root@t5120 #
Ahora ya tengo un memory stick de 8gigas en teoria de acuerdo al fabricante con soporte USB3.0 y casi todos los servidores de momento tienen solo USB2.0.
Pequeño gran problema ya el procedimiento ahora no avanza para adelante ya que el resultado es que directamente no se puede acceder al dispositivo.
Al final es como todo solo se tiene que dar la vuelta y encontrar solucion y se presenta un procediento que funciona.
Paso 1 devfsadm -C
Paso 2 mount -F pcfs /dev/dsk/cXt0d0s0:c /mnt
Voila!! todo montado y accesible con esto ya accedemos a la data.
martes, 25 de septiembre de 2012
ZFS mirror
Despues de mucho tiempo toca migrar un equipo antiguo a otro un poco menos antiguo, el detalle de reconfigurar el /dev no es mucho problema con solaris 10 lo unico a no olvidar es cambiar el nombre de las interfaces de red y con eso todo esta cerrado.
El mirror original que esta zon ZFS se corrompio por algun motivo pero la verdad es que no se tiene tiempo para averiguar que es lo que paso.
El status del mirror ahora es el siguiente:
root@odin # zpool status
pool: solpool
state: DEGRADED
status: One or more devices could not be used because the label is missing or
invalid. Sufficient replicas exist for the pool to continue
functioning in a degraded state.
action: Replace the device using 'zpool replace'.
see: http://www.sun.com/msg/ZFS-8000-4J
scrub: none requested
config:
NAME STATE READ WRITE CKSUM
solpool DEGRADED 0 0 0
mirror-0 DEGRADED 0 0 0
c0t11d0s0 UNAVAIL 0 0 0 corrupted data
c8t0d0s0 ONLINE 0 0 0
errors: No known data errors
root@odin #
Los discos instalados en el equipo son los siguientes:
root@odin # echo | format
Searching for disks...done
AVAILABLE DISK SELECTIONS:
0. c8t0d0 <SUN72G cyl 14087 alt 2 hd 24 sec 424>
/pci@1c,600000/scsi@2/sd@0,0
1. c8t1d0 <SUN72G cyl 14087 alt 2 hd 24 sec 424>
/pci@1c,600000/scsi@2/sd@1,0
Specify disk (enter its number): Specify disk (enter its number):
Lo primero que se hara es sacar ese disco que no existe en el equipo el c0t11d0s0 con el siguiente comando
root@odin # zpool detach solpool c0t11d0s0
root@odin # zpool status
pool: solpool
state: ONLINE
scrub: none requested
config:
NAME STATE READ WRITE CKSUM
solpool ONLINE 0 0 0
c8t0d0s0 ONLINE 0 0 0
errors: No known data errors
Ya con esto se hace el atach del disco que debe ser:
root@odin # zpool attach solpool c8t0d0s0 c8t1d0s0
Please be sure to invoke installboot(1M) to make 'c8t1d0s0' bootable.
Make sure to wait until resilver is done before rebooting.
root@odin #
Se lo corre el comando para que sea booteable.
root@odin # pwd
/usr/platform/SUNW,Sun-Fire-V210/lib/fs/zfs
root@odin # installboot bootblk /dev/rdsk/c8t1d0s0
root@odin #
Con esto solo queda medir el estado de la resincronizacion.
root@odin # zpool status -v
pool: solpool
state: ONLINE
status: One or more devices is currently being resilvered. The pool will
continue to function, possibly in a degraded state.
action: Wait for the resilver to complete.
scrub: resilver in progress for 0h6m, 36.16% done, 0h12m to go
config:
NAME STATE READ WRITE CKSUM
solpool ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
c8t0d0s0 ONLINE 0 0 0
c8t1d0s0 ONLINE 0 0 0 8.20G resilvered
errors: No known data errors
root@odin #
De acuerdo a lo anterior debe concluir en 12 minutos mas
Paso un poco mas de los 12 minutos y se tiene la siguiente pantalla.
root@odin # zpool status -xv
pool: solpool
state: ONLINE
status: One or more devices is currently being resilvered. The pool will
continue to function, possibly in a degraded state.
action: Wait for the resilver to complete.
scrub: resilver in progress for 0h18m, 98.98% done, 0h0m to go
config:
NAME STATE READ WRITE CKSUM
solpool ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
c8t0d0s0 ONLINE 0 0 0
c8t1d0s0 ONLINE 0 0 0 22.5G resilvered
errors: No known data errors
root@odin # zpool status -xv
pool: solpool
state: ONLINE
status: One or more devices is currently being resilvered. The pool will
continue to function, possibly in a degraded state.
action: Wait for the resilver to complete.
scrub: resilver in progress for 0h18m, 98.98% done, 0h0m to go
config:
NAME STATE READ WRITE CKSUM
solpool ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
c8t0d0s0 ONLINE 0 0 0
c8t1d0s0 ONLINE 0 0 0 22.5G resilvered
errors: No known data errors
Finalmente.
root@odin # zpool status -xv
all pools are healthy
Para tener la practica necesaria el paso dos en el escenario en el que falle el otro disco seria lo siguiente:
root@odin # zpool status
pool: solpool
state: ONLINE
scrub: resilver completed after 0h19m with 0 errors on Tue Sep 25 11:36:03 2012
config:
NAME STATE READ WRITE CKSUM
solpool ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
c8t0d0s0 ONLINE 0 0 0
c8t1d0s0 ONLINE 0 0 0 22.7G resilvered
errors: No known data errors
root@odin # zpool detach solpool c8t0d0
cannot detach c8t0d0: no such device in pool
root@odin # zpool detach solpool c8t0d0s0
root@odin # zpool status
pool: solpool
state: ONLINE
scrub: resilver completed after 0h19m with 0 errors on Tue Sep 25 11:36:03 2012
config:
NAME STATE READ WRITE CKSUM
solpool ONLINE 0 0 0
c8t1d0s0 ONLINE 0 0 0 22.7G resilvered
errors: No known data errors
root@odin # zpool attach c8t1d0 c8t0d0
missing <new_device> specification
usage:
attach [-f] <pool> <device> <new-device>
root@odin # zpool attach c8t1d0s0 c8t0d0s0
missing <new_device> specification
usage:
attach [-f] <pool> <device> <new-device>
root@odin # zpool attach solpool c8t1d0s0 c8t0d0s0
Please be sure to invoke installboot(1M) to make 'c8t0d0s0' bootable.
Make sure to wait until resilver is done before rebooting.
root@odin # zpool status -xv
pool: solpool
state: ONLINE
status: One or more devices is currently being resilvered. The pool will
continue to function, possibly in a degraded state.
action: Wait for the resilver to complete.
scrub: resilver in progress for 0h0m, 1.18% done, 0h41m to go
config:
NAME STATE READ WRITE CKSUM
solpool ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
c8t1d0s0 ONLINE 0 0 0
c8t0d0s0 ONLINE 0 0 0 275M resilvered
errors: No known data errors
root@odin #
El mirror original que esta zon ZFS se corrompio por algun motivo pero la verdad es que no se tiene tiempo para averiguar que es lo que paso.
El status del mirror ahora es el siguiente:
root@odin # zpool status
pool: solpool
state: DEGRADED
status: One or more devices could not be used because the label is missing or
invalid. Sufficient replicas exist for the pool to continue
functioning in a degraded state.
action: Replace the device using 'zpool replace'.
see: http://www.sun.com/msg/ZFS-8000-4J
scrub: none requested
config:
NAME STATE READ WRITE CKSUM
solpool DEGRADED 0 0 0
mirror-0 DEGRADED 0 0 0
c0t11d0s0 UNAVAIL 0 0 0 corrupted data
c8t0d0s0 ONLINE 0 0 0
errors: No known data errors
root@odin #
Los discos instalados en el equipo son los siguientes:
root@odin # echo | format
Searching for disks...done
AVAILABLE DISK SELECTIONS:
0. c8t0d0 <SUN72G cyl 14087 alt 2 hd 24 sec 424>
/pci@1c,600000/scsi@2/sd@0,0
1. c8t1d0 <SUN72G cyl 14087 alt 2 hd 24 sec 424>
/pci@1c,600000/scsi@2/sd@1,0
Specify disk (enter its number): Specify disk (enter its number):
Lo primero que se hara es sacar ese disco que no existe en el equipo el c0t11d0s0 con el siguiente comando
root@odin # zpool detach solpool c0t11d0s0
root@odin # zpool status
pool: solpool
state: ONLINE
scrub: none requested
config:
NAME STATE READ WRITE CKSUM
solpool ONLINE 0 0 0
c8t0d0s0 ONLINE 0 0 0
errors: No known data errors
Ya con esto se hace el atach del disco que debe ser:
root@odin # zpool attach solpool c8t0d0s0 c8t1d0s0
Please be sure to invoke installboot(1M) to make 'c8t1d0s0' bootable.
Make sure to wait until resilver is done before rebooting.
root@odin #
Se lo corre el comando para que sea booteable.
root@odin # pwd
/usr/platform/SUNW,Sun-Fire-V210/lib/fs/zfs
root@odin # installboot bootblk /dev/rdsk/c8t1d0s0
root@odin #
Con esto solo queda medir el estado de la resincronizacion.
root@odin # zpool status -v
pool: solpool
state: ONLINE
status: One or more devices is currently being resilvered. The pool will
continue to function, possibly in a degraded state.
action: Wait for the resilver to complete.
scrub: resilver in progress for 0h6m, 36.16% done, 0h12m to go
config:
NAME STATE READ WRITE CKSUM
solpool ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
c8t0d0s0 ONLINE 0 0 0
c8t1d0s0 ONLINE 0 0 0 8.20G resilvered
errors: No known data errors
root@odin #
De acuerdo a lo anterior debe concluir en 12 minutos mas
Paso un poco mas de los 12 minutos y se tiene la siguiente pantalla.
root@odin # zpool status -xv
pool: solpool
state: ONLINE
status: One or more devices is currently being resilvered. The pool will
continue to function, possibly in a degraded state.
action: Wait for the resilver to complete.
scrub: resilver in progress for 0h18m, 98.98% done, 0h0m to go
config:
NAME STATE READ WRITE CKSUM
solpool ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
c8t0d0s0 ONLINE 0 0 0
c8t1d0s0 ONLINE 0 0 0 22.5G resilvered
errors: No known data errors
root@odin # zpool status -xv
pool: solpool
state: ONLINE
status: One or more devices is currently being resilvered. The pool will
continue to function, possibly in a degraded state.
action: Wait for the resilver to complete.
scrub: resilver in progress for 0h18m, 98.98% done, 0h0m to go
config:
NAME STATE READ WRITE CKSUM
solpool ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
c8t0d0s0 ONLINE 0 0 0
c8t1d0s0 ONLINE 0 0 0 22.5G resilvered
errors: No known data errors
Finalmente.
root@odin # zpool status -xv
all pools are healthy
Para tener la practica necesaria el paso dos en el escenario en el que falle el otro disco seria lo siguiente:
root@odin # zpool status
pool: solpool
state: ONLINE
scrub: resilver completed after 0h19m with 0 errors on Tue Sep 25 11:36:03 2012
config:
NAME STATE READ WRITE CKSUM
solpool ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
c8t0d0s0 ONLINE 0 0 0
c8t1d0s0 ONLINE 0 0 0 22.7G resilvered
errors: No known data errors
root@odin # zpool detach solpool c8t0d0
cannot detach c8t0d0: no such device in pool
root@odin # zpool detach solpool c8t0d0s0
root@odin # zpool status
pool: solpool
state: ONLINE
scrub: resilver completed after 0h19m with 0 errors on Tue Sep 25 11:36:03 2012
config:
NAME STATE READ WRITE CKSUM
solpool ONLINE 0 0 0
c8t1d0s0 ONLINE 0 0 0 22.7G resilvered
errors: No known data errors
root@odin # zpool attach c8t1d0 c8t0d0
missing <new_device> specification
usage:
attach [-f] <pool> <device> <new-device>
root@odin # zpool attach c8t1d0s0 c8t0d0s0
missing <new_device> specification
usage:
attach [-f] <pool> <device> <new-device>
root@odin # zpool attach solpool c8t1d0s0 c8t0d0s0
Please be sure to invoke installboot(1M) to make 'c8t0d0s0' bootable.
Make sure to wait until resilver is done before rebooting.
root@odin # zpool status -xv
pool: solpool
state: ONLINE
status: One or more devices is currently being resilvered. The pool will
continue to function, possibly in a degraded state.
action: Wait for the resilver to complete.
scrub: resilver in progress for 0h0m, 1.18% done, 0h41m to go
config:
NAME STATE READ WRITE CKSUM
solpool ONLINE 0 0 0
mirror-0 ONLINE 0 0 0
c8t1d0s0 ONLINE 0 0 0
c8t0d0s0 ONLINE 0 0 0 275M resilvered
errors: No known data errors
root@odin #
miércoles, 11 de julio de 2012
Una mas de solaris
Did have a similar problem.
In my case, the problem occurred after I issued the following command:
# svcadm milestone -d milestone/single-user:default
The -d option made milestone/single-user:default the default milestone.
So, everytime that I was booting the server, the server was going to milestone/single-user
Cleared the situation with
# svcadm milestone -d all
# init 0
ok boot
My understanding is that milestone all is the default milestone when Solaris 10 is installed out of box.
In my case, the problem occurred after I issued the following command:
# svcadm milestone -d milestone/single-user:default
The -d option made milestone/single-user:default the default milestone.
So, everytime that I was booting the server, the server was going to milestone/single-user
Cleared the situation with
# svcadm milestone -d all
# init 0
ok boot
My understanding is that milestone all is the default milestone when Solaris 10 is installed out of box.
Suscribirse a:
Entradas (Atom)