sábado, 21 de abril de 2007

Linux y LVM

   En los 320GB del disco de mi nuevo pc he reservado unos 45GB para linux. En concreto me he estado esperando para instalar la nueva Ubuntu Feisty Fawn porque iba a salir en poco tiempo. Durante estos días he estado pensando cómo particionar esos 45GB y la verdad es que no lo tenía nada claro. Después de preguntar a Alex por gtalk, esta fue su solución:
150MB /boot ext2 (o ext3)
6GB / ext3
1GB /var ext3
2GB swap
El resto en un PV de LVM para vgdata (por ejemplo). Después creas /opt en lvopt sobre vgdata y /home en lvhome sobre vgdata.
Por último dejar el /usr en el / (no ponerlo en LVM ni como otro FS)

   Además me dió unos cuantos comandos para crear todo y me "soltó" para que probase.

   Después de mirar el man y buscar un poco por internet me enteré de qué es LVM, en qué se basa, para qué me podía servir y cómo utilizarlo. Manos a la obra...

   Como siempre, para cacharrear utilizo una máquina virtual puesto que es mucho más cómodo y permite mucha flexibilidad a la hora de añadir discos, cambiarlos de tipo,... Añadí un nuevo disco duro scsi de 2 GB (para las pruebas es más que suficiente) y me dispuse a aprender:
  • El primer paso como siempre particionar. En este caso, el tipo de partición será Linux LVM (8e)

    shian:~# fdisk /dev/sda

    Command (m for help): n
    Command action
    e extended
    p primary partition (1-4)
    p
    Partition number (1-4): 1
    First cylinder (1-261, default 1):INTRO
    Using default value 1
    Last cylinder or +size or +sizeM or +sizeK (1-261, default 261):INTRO
    Using default value 261

    Command (m for help): t
    Selected partition 1
    Hex code (type L to list codes): 8e
    Changed system type of partition 1 to 8e (Linux LVM)

    Command (m for help): p

    Disk /dev/sda: 2147 MB, 2147483648 bytes
    255 heads, 63 sectors/track, 261 cylinders
    Units = cylinders of 16065 * 512 = 8225280 bytes

    Device Boot Start End Blocks Id System
    /dev/sda1 1 261 2096451 8e Linux LVM

    Command (m for help): w
    The partition table has been altered!

    Calling ioctl() to re-read partition table.
    Syncing disks.
  • El siguiente paso es crear el Physical Volume (PV):
    shian:~# pvcreate -v /dev/sda1
    Set up physical volume for "/dev/sda1" with 4192518 available sectors
    Zeroing start of device /dev/sda1
    Physical volume "/dev/sda1" successfully created
  • Ahora creamos el Volume Group (VG) con el PV recien creado. En mi caso crearé sólo uno:
    shian:~# vgcreate -v vg01 /dev/sda1
    Adding physical volume '/dev/sda1' to volume group 'vg01'
    Archiving volume group "vg01" metadata.
    Creating volume group backup "/etc/lvm/backup/vg01"
    Volume group "vg01" successfully created
  • Después creamos los Logical Volume (LV) que queramos. Cada uno de estos será al final un punto de montaje distinto. En mi caso crearé uno de 1 GB para datos (y dejaré el otro GB libre):
    shian:~# lvcreate -v -L 1G -n lvdatos vg01
    Finding volume group "vg01"
    Creating logical volume lvdatos
    Archiving volume group "vg01" metadata.
    Creating volume group backup "/etc/lvm/backup/vg01"
    Found volume group "vg01"
    Loading vg01-lvdatos
    Zeroing start of logical volume "lvdatos"
    Creating volume group backup "/etc/lvm/backup/vg01"
    Logical volume "lvdatos" created

  •    Bien, veamos lo que llevamos hecho hasta ahora.
  • Lista de PVs creados:
    shian:~# pvdisplay -v
    Scanning for physical volume names
    --- Physical volume ---
    PV Name /dev/sda1
    VG Name vg01
    PV Size 2.00 GB / not usable 0
    Allocatable yes
    PE Size (KByte) 4096
    Total PE 511
    Free PE 255
    Allocated PE 256
    PV UUID 1wounc-DIHj-Tf54-4h2c-4rcB-w137-gLH4I6
  • Lista de VGs creados. En VG Size vemos que el VG es de 2GB y que hemos utilizado 1GB (Alloc Size):
    shian:~# vgdisplay
    --- Volume group ---
    VG Name vg01
    System ID
    Format lvm2
    Metadata Areas 1
    Metadata Sequence No 2
    VG Access read/write
    VG Status resizable
    MAX LV 0
    Cur LV 1
    Open LV 0
    Max PV 0
    Cur PV 1
    Act PV 1
    VG Size 2.00 GB
    PE Size 4.00 MB
    Total PE 511
    Alloc PE / Size 256 / 1.00 GB
    Free PE / Size 255 / 1020.00 MB
    VG UUID BpNJTl-9tlr-DjzM-C8Mb-LfnL-NWDa-uyWDpf
  • Lista de LVols creados:
    shian:~# lvdisplay -v
    Finding all logical volumes
    --- Logical volume ---
    LV Name /dev/vg01/lvdatos
    VG Name vg01
    LV UUID 7CYTLY-YgI2-c64S-F50h-vPXH-TEk9-o4hFOE
    LV Write Access read/write
    LV Status available
    # open 0
    LV Size 1.00 GB
    Current LE 256
    Segments 1
    Allocation inherit
    Read ahead sectors 0
    Block device 254:0
  • Y finalmente, si queremos ver la asignación de VGs, LVols y PVs:
    shian:~# vgdisplay -v
    Finding all volume groups
    Finding volume group "vg01"
    --- Volume group ---
    VG Name vg01
    System ID
    Format lvm2
    Metadata Areas 1
    Metadata Sequence No 2
    VG Access read/write
    VG Status resizable
    MAX LV 0
    Cur LV 1
    Open LV 0
    Max PV 0
    Cur PV 1
    Act PV 1
    VG Size 2.00 GB
    PE Size 4.00 MB
    Total PE 511
    Alloc PE / Size 256 / 1.00 GB
    Free PE / Size 255 / 1020.00 MB
    VG UUID BpNJTl-9tlr-DjzM-C8Mb-LfnL-NWDa-uyWDpf

    --- Logical volume ---
    LV Name /dev/vg01/lvdatos
    VG Name vg01
    LV UUID 7CYTLY-YgI2-c64S-F50h-vPXH-TEk9-o4hFOE
    LV Write Access read/write
    LV Status available
    # open 0
    LV Size 1.00 GB
    Current LE 256
    Segments 1
    Allocation inherit
    Read ahead sectors 0
    Block device 254:0

    --- Physical volumes ---
    PV Name /dev/sda1
    PV UUID 1wounc-DIHj-Tf54-4h2c-4rcB-w137-gLH4I6
    PV Status allocatable
    Total PE / Free PE 511 / 255

  •    Después de este pequeño resumen seguimos con la creación de la partición.
  • Una vez que tenemos el lvol creado lo formateamos con la sistema de ficheros que más nos guste:
    shian:~# mkfs.ext3 /dev/vg01/lvdatos
    mke2fs 1.37 (21-Mar-2005)
    Filesystem label=
    OS type: Linux
    Block size=4096 (log=2)
    Fragment size=4096 (log=2)
    131072 inodes, 262144 blocks
    13107 blocks (5.00%) reserved for the super user
    First data block=0
    8 block groups
    32768 blocks per group, 32768 fragments per group
    16384 inodes per group
    Superblock backups stored on blocks:
    32768, 98304, 163840, 229376

    Writing inode tables: done
    Creating journal (8192 blocks): done
    Writing superblocks and filesystem accounting information: done

    This filesystem will be automatically checked every 27 mounts or
    180 days, whichever comes first. Use tune2fs -c or -i to override.
  • Lo montamos para probar:
    shian:~# mkdir /mnt/datos_lvm
    shian:~# mount /dev/vg01/lvdatos /mnt/datos_lvm
    shian:~# df -h /mnt/datos_lvm/
    Filesystem Size Used Avail Use% Mounted on
    /dev/mapper/vg01-lvdatos
    1008M 33M 925M 4% /mnt/datos_lvm
  • Y listo, ya sólo queda añadirlo a /etc/fstab para que se monte automáticamente en el arranque:
    shian:~# echo "/dev/vg01/lvdatos /mnt/datos_lvm ext3   defaults        0       2" >> /etc/fstab

  •    Hasta aquí es lo fácil. Como se puede ver con unos cuantos comandos tenemos el filesystem montado y listo para ser utilizado sin mayores complicaciones.

       La ventaja de utilizar lvm es que podemos redimensionar las particiones de manera dinámica sin tener que hacer un backup de la información, tener que reparticionar,... Vamos a probarlo.
  • Creamos un archivo aleatorio de 25MB, calculamos su CRC y lo apuntamos:
    shian:~# dd if=/dev/urandom of=/mnt/datos_lvm/random count=51200
    51200+0 records in
    51200+0 records out
    26214400 bytes transferred in 7.991592 seconds (3280248 bytes/sec)
    shian:~# cksum /mnt/datos_lvm/random
    1105592823 26214400 /mnt/datos_lvm/random
  • Supongamos que necesitamos espacio adicional en el disco, por ejemplo, 500MB más. Lo que tenemos que hacer es ampliar el lvol y después el filesystem:
    shian:~# lvextend -v -L+500M /dev/vg01/lvdatos
    Finding volume group vg01
    Archiving volume group "vg01" metadata.
    Extending logical volume lvdatos to 1.49 GB
    Creating volume group backup "/etc/lvm/backup/vg01"
    Found volume group "vg01"
    Found volume group "vg01"
    Loading vg01-lvdatos
    Logical volume lvdatos successfully resized
  • En el caso de un sistema de archivos como ext3 es necesario desmontarlo primero antes de realizar la ampliación. Adicionalmente también es necesario ejecutar e2fsck para chequear el filesystem:
    shian:~# umount /mnt/datos_lvm/
    shian:~# resize2fs /dev/vg01/lvdatos
    resize2fs 1.37 (21-Mar-2005)
    Please run 'e2fsck -f /dev/vg01/lvdatos' first.

    shian:~# e2fsck -f /dev/vg01/lvdatos
    e2fsck 1.37 (21-Mar-2005)
    Pass 1: Checking inodes, blocks, and sizes
    Pass 2: Checking directory structure
    Pass 3: Checking directory connectivity
    Pass 4: Checking reference counts
    Pass 5: Checking group summary information
    /dev/vg01/lvdatos: 12/131072 files (0.0% non-contiguous), 18737/262144 blocks

    shian:~# resize2fs /dev/vg01/lvdatos
    resize2fs 1.37 (21-Mar-2005)
    Resizing the filesystem on /dev/vg01/lvdatos to 390144 (4k) blocks.
    The filesystem on /dev/vg01/lvdatos is now 390144 blocks long.
  • Y ya estaría listo. Si ahora montamos el filesystem y/o comprobamos el lvol vemos que tiene 500MB más:
    shian:~# mount /mnt/datos_lvm/
    shian:~# df -h /mnt/datos_lvm/
    Filesystem Size Used Avail Use% Mounted on
    /dev/mapper/vg01-lvdatos
    1.5G 58M 1.4G 4% /mnt/datos_lvm

    shian:~# lvdisplay
    --- Logical volume ---
    LV Name /dev/vg01/lvdatos
    VG Name vg01
    LV UUID 7CYTLY-YgI2-c64S-F50h-vPXH-TEk9-o4hFOE
    LV Write Access read/write
    LV Status available
    # open 0
    LV Size 1.49 GB
    Current LE 381
    Segments 1
    Allocation inherit
    Read ahead sectors 0
    Block device 254:0
  • Para reducirlo el procedimiento es similiar, pero hay que tener en cuenta que primero hay que reducir el filesystem y luego el lvol. La primera vez que lo hice no lo pensé mucho y reduje primero el lvol, por lo que me cargué los datos ;-)
    shian:~# umount /mnt/datos_lvm/
    shian:~# e2fsck -f /dev/vg01/lvdatos
    e2fsck 1.37 (21-Mar-2005)
    Pass 1: Checking inodes, blocks, and sizes
    Pass 2: Checking directory structure
    Pass 3: Checking directory connectivity
    Pass 4: Checking reference counts
    Pass 5: Checking group summary information
    /dev/vg01/lvdatos: 12/196608 files (0.0% non-contiguous), 20795/390144 blocks

    shian:~# resize2fs /dev/vg01/lvdatos 1G
    resize2fs 1.37 (21-Mar-2005)
    Resizing the filesystem on /dev/vg01/lvdatos to 262144 (4k) blocks.
    The filesystem on /dev/vg01/lvdatos is now 262144 blocks long.

    shian:~# lvreduce -v -L-500M /dev/vg01/lvdatos
    Finding volume group vg01
    WARNING: Reducing active logical volume to 1.00 GB
    THIS MAY DESTROY YOUR DATA (filesystem etc.)
    Do you really want to reduce lvdatos? [y/n]: y
    Archiving volume group "vg01" metadata.
    Reducing logical volume lvdatos to 1.00 GB
    Creating volume group backup "/etc/lvm/backup/vg01"
    Found volume group "vg01"
    Found volume group "vg01"
    Loading vg01-lvdatos
    Logical volume lvdatos successfully resized

    shian:~# mount /mnt/datos_lvm/
    shian:~# df -h /mnt/datos_lvm/
    Filesystem Size Used Avail Use% Mounted on
    /dev/mapper/vg01-lvdatos
    1008M 58M 921M 6% /mnt/datos_lvm
  • Comprobamos el cksum para ver que no nos hemos cargado nada:
    shian:~# cksum /mnt/datos_lvm/random
    1105592823 26214400 /mnt/datos_lvm/random

  •    Aunque todo parece muy bonito, no fue tan fácil. Como he dicho al principio del artículo el disco virtual que añadí al vmware era scsi por lo que cuando arrancaba la máquina, como los controladores scsi se cargan posteriormente al montaje de las particiones aparecía un error porque no encontraba el dispositivo. Como no estaba seguro que de fuera eso añadí un nuevo disco ide, repetí todos los pasos y funcionó a la perfección. Así, el problema era del scsi. Lo que tuve que hacer para solucionarlo fue:
  • Miré el controlador scsi que utiliza vmware y los módulos cargados:
    shian:~# lspci
    0000:00:00.0 Host bridge: Intel Corp. 440BX/ZX/DX - 82443BX/ZX/DX Host bridge (rev 01)
    0000:00:01.0 PCI bridge: Intel Corp. 440BX/ZX/DX - 82443BX/ZX/DX AGP bridge (rev 01)
    0000:00:07.0 ISA bridge: Intel Corp. 82371AB/EB/MB PIIX4 ISA (rev 08)
    0000:00:07.1 IDE interface: Intel Corp. 82371AB/EB/MB PIIX4 IDE (rev 01)
    0000:00:07.3 Bridge: Intel Corp. 82371AB/EB/MB PIIX4 ACPI (rev 08)
    0000:00:0f.0 VGA compatible controller: VMWare Inc [VMWare SVGA II] PCI Display Adapter
    0000:00:10.0 SCSI storage controller: LSI Logic / Symbios Logic 53c1030 PCI-X Fusion-MPT Dual Ultra320 SCSI (rev 01)
    0000:00:11.0 Ethernet controller: Advanced Micro Devices [AMD] 79c970 [PCnet32 LANCE] (rev 10)

    shian:~# lsmod
    Module Size Used by
    ipv6 241728 -
    ehci_hcd 28744 -
    usbcore 127804 -
    shpchp 34416 -
    pci_hotplug 14784 -
    intel_agp 23084 -
    pcnet32 31972 -
    mii 5392 -
    crc32 3888 -
    agpgart 33472 -
    raid1 20912 -
    md_mod 72172 -
    sd_mod 19552 -
    dm_mod 55692 -
    mptspi 16348 -
    mptscsih 24720 -
    mptbase 52064 -
    scsi_transport_spi 23792 -
    scsi_mod 145484 -
    ide_cd 40200 -
    cdrom 39424 -
    unix 25328 -
    ext3 126488 -
    jbd 54552 -
    ide_disk 16112 -
    generic 4952 -
    piix 10228 -
    ide_core 117252 -
    evdev 9824 -
  • La clave me la dio el MPT tanto de la controladora como de los módulos cargados:
    0000:00:10.0 SCSI storage controller: LSI Logic / Symbios Logic 53c1030 PCI-X Fusion-MPT Dual Ultra320 SCSI (rev 01)

    ...
    mptspi 16348 -
    mptscsih 24720 -
    mptbase 52064 -
    ...
  • Así, añadí al archivo /etc/modules lo siguiente:
    # /etc/modules: kernel modules to load at boot time.
    #
    # This file should contain the names of kernel modules that are
    # to be loaded at boot time, one per line. Comments begin with
    # a "#", and everything on the line after them are ignored.
    ide-cd
    ide-disk
    mptspi
    mptscsih
    mptbase
  • Guardé los cambios, reinicié y ahora ya sí se inicializaba la tarjeta scsci antes del lvm y al intentar montar las particiones éstas estaban disponibles.


  •    Otra de las cosas interesantes que podemos hacer con lvm es crear un volumen físico sobre uno de raid. Aprovechando el raid 1 que cree hace tiempo hice la siguiente prueba. Ojo que los datos del raid se pierden!.
    shian:~# umount /dev/md0
    shian:~# pvcreate -v /dev/md0
    Set up physical volume for "/dev/md0" with 2096000 available sectors
    Zeroing start of device /dev/md0
    Physical volume "/dev/md0" successfully created

    shian:~# vgcreate -v vg02 /dev/md0
    Adding physical volume '/dev/md0' to volume group 'vg02'
    Archiving volume group "vg02" metadata.
    Creating volume group backup "/etc/lvm/backup/vg02"
    Volume group "vg02" successfully created

    shian:~# lvcreate -v -L 900M -n lvol_raid vg02
    Finding volume group "vg02"
    Creating logical volume lvol_raid
    Archiving volume group "vg02" metadata.
    Creating volume group backup "/etc/lvm/backup/vg02"
    Found volume group "vg02"
    Loading vg02-lvol_raid
    Zeroing start of logical volume "lvol_raid"
    Creating volume group backup "/etc/lvm/backup/vg02"
    Logical volume "lvol_raid" created

    shian:~# mkfs.ext3 /dev/vg02/lvol_raid
    mke2fs 1.37 (21-Mar-2005)
    Filesystem label=
    OS type: Linux
    Block size=4096 (log=2)
    Fragment size=4096 (log=2)
    115200 inodes, 230400 blocks
    11520 blocks (5.00%) reserved for the super user
    First data block=0
    8 block groups
    32768 blocks per group, 32768 fragments per group
    14400 inodes per group
    Superblock backups stored on blocks:
    32768, 98304, 163840, 229376

    Writing inode tables: done
    Creating journal (4096 blocks): done
    Writing superblocks and filesystem accounting information: done

    This filesystem will be automatically checked every 28 mounts or
    180 days, whichever comes first. Use tune2fs -c or -i to override.

    shian:~# mount /dev/vg02/lvol_raid /mnt/raid

    shian:~# df -h /mnt/raid
    Filesystem Size Used Avail Use% Mounted on
    /dev/mapper/vg02-lvol_raid
    886M 17M 825M 2% /mnt/raid

       Y ya tenemos un LVM + Raid 1 funcionando y con las ventajas de ambos: la redundancia del raid y la gestión dinámica de las particiones de lvm.

       Finalmente, para terminar, otra cosa que se puede hacer con lvm es lo siguiente (cortesía de Alex). Imaginemos que tenemos lvm montado en un disco, con particiones, datos,... pero que se nos está quedando pequeño. Nos compramos un disco nuevo para sustituir al antiguo (en el ejemplo he añadido un nuevo disco scsi a la máquina virtual de 4GB, sdb) y después de particionarlo como lvm hacemos lo siguiente:
  • Creamos un PV en la nueva partición:
    shian:~# pvcreate -v /dev/sdb1
    Set up physical volume for "/dev/sdb1" with 8385483 available sectors
    Zeroing start of device /dev/sdb1
    Physical volume "/dev/sdb1" successfully created
  • Lo añadimos al VG vg01 ya existente:
    shian:~# vgextend -v vg01 /dev/sdb1
    Checking for volume group "vg01"
    Archiving volume group "vg01" metadata.
    Adding physical volume '/dev/sdb1' to volume group 'vg01'
    Volume group "vg01" will be extended by 1 new physical volumes
    Creating volume group backup "/etc/lvm/backup/vg01"
    Volume group "vg01" successfully extended
  • Mostramos la información y comprobamos que tenemos dos PVs en el mismo VG. Nos fijamos en las extensiones disponibles en cada uno:
    shian:~# vgdisplay -v vg01
    Using volume group(s) on command line
    Finding volume group "vg01"
    --- Volume group ---
    VG Name vg01
    System ID
    Format lvm2
    Metadata Areas 2
    Metadata Sequence No 5
    VG Access read/write
    VG Status resizable
    MAX LV 0
    Cur LV 1
    Open LV 1
    Max PV 0
    Cur PV 2
    Act PV 2
    VG Size 5.99 GB
    PE Size 4.00 MB
    Total PE 1534
    Alloc PE / Size 256 / 1.00 GB
    Free PE / Size 1278 / 4.99 GB
    VG UUID BpNJTl-9tlr-DjzM-C8Mb-LfnL-NWDa-uyWDpf

    --- Logical volume ---
    LV Name /dev/vg01/lvdatos
    VG Name vg01
    LV UUID 7CYTLY-YgI2-c64S-F50h-vPXH-TEk9-o4hFOE
    LV Write Access read/write
    LV Status available
    # open 1
    LV Size 1.00 GB
    Current LE 256
    Segments 1
    Allocation inherit
    Read ahead sectors 0
    Block device 254:0

    --- Physical volumes ---
    PV Name /dev/sda1
    PV UUID 1wounc-DIHj-Tf54-4h2c-4rcB-w137-gLH4I6
    PV Status allocatable
    Total PE / Free PE 511 / 255

    PV Name /dev/sdb1
    PV UUID N0nwct-jNnY-eU0D-6Evh-tkIN-9vKs-9KsV3v
    PV Status allocatable
    Total PE / Free PE 1023 / 1023
  • Movemos la información de la partición que queremos liberar. Previamente nos aparece un error indicando que necesitamos tener activado en el kernel el mirror, así que cargamos el módulo:
    shian:~# pvmove -v /dev/sda1
    Finding volume group "vg01"
    Archiving volume group "vg01" metadata.
    Creating logical volume pvmove0
    mirror: Required device-mapper target(s) not detected in your kernel

    shian:~# modprobe dm_mirror
  • De nuevo, intentamos mover los datos, aunque ahora sí lo conseguimos:
    shian:~# pvmove -v /dev/sda1
    Finding volume group "vg01"
    Archiving volume group "vg01" metadata.
    Creating logical volume pvmove0
    Moving 256 extents of logical volume vg01/lvdatos
    Found volume group "vg01"
    Updating volume group metadata
    Creating volume group backup "/etc/lvm/backup/vg01"
    Found volume group "vg01"
    Found volume group "vg01"
    Loading vg01-pvmove0
    Found volume group "vg01"
    Loading vg01-lvdatos
    Checking progress every 15 seconds
    /dev/sda1: Moved: 72.7%
    /dev/sda1: Moved: 100.0%
    Found volume group "vg01"
    Found volume group "vg01"
    Found volume group "vg01"
    Loading vg01-pvmove0
    Found volume group "vg01"
    Loading vg01-lvdatos
    Found volume group "vg01"
    Found volume group "vg01"
    Removing temporary pvmove LV
    Writing out final volume group after pvmove
    Creating volume group backup "/etc/lvm/backup/vg01"
  • Comprobamos el estado del VG y vemos que el PV /dev/sda1 tiene todas las extensiones disponibles:
    shian:~# vgdisplay -v vg01
    ...
    ...
    --- Physical volumes ---
    PV Name /dev/sda1
    PV UUID 1wounc-DIHj-Tf54-4h2c-4rcB-w137-gLH4I6
    PV Status allocatable
    Total PE / Free PE 511 / 511

    PV Name /dev/sdb1
    PV UUID N0nwct-jNnY-eU0D-6Evh-tkIN-9vKs-9KsV3v
    PV Status allocatable
    Total PE / Free PE 1023 / 767
  • Y finalmente eliminamos el PV /dev/sda1 del VG vg01 y comprobamos el resultado:
    shian:~# vgreduce -v vg01 /dev/sda1
    Finding volume group "vg01"
    Using physical volume(s) on command line
    Archiving volume group "vg01" metadata.
    Removing "/dev/sda1" from volume group "vg01"
    Creating volume group backup "/etc/lvm/backup/vg01"
    Removed "/dev/sda1" from volume group "vg01"

    shian:~# vgdisplay -v vg01
    Using volume group(s) on command line
    Finding volume group "vg01"
    --- Volume group ---
    VG Name vg01
    System ID
    Format lvm2
    Metadata Areas 1
    Metadata Sequence No 11
    VG Access read/write
    VG Status resizable
    MAX LV 0
    Cur LV 1
    Open LV 1
    Max PV 0
    Cur PV 1
    Act PV 1
    VG Size 4.00 GB
    PE Size 4.00 MB
    Total PE 1023
    Alloc PE / Size 256 / 1.00 GB
    Free PE / Size 767 / 3.00 GB
    VG UUID BpNJTl-9tlr-DjzM-C8Mb-LfnL-NWDa-uyWDpf

    --- Logical volume ---
    LV Name /dev/vg01/lvdatos
    VG Name vg01
    LV UUID 7CYTLY-YgI2-c64S-F50h-vPXH-TEk9-o4hFOE
    LV Write Access read/write
    LV Status available
    # open 1
    LV Size 1.00 GB
    Current LE 256
    Segments 1
    Allocation inherit
    Read ahead sectors 0
    Block device 254:0

    --- Physical volumes ---
    PV Name /dev/sdb1
    PV UUID N0nwct-jNnY-eU0D-6Evh-tkIN-9vKs-9KsV3v
    PV Status allocatable
    Total PE / Free PE 1023 / 767

  •    En este extenso (si has llegado hasta aquí enhorabuena) artículo hemos visto qué es el LVM y cómo gestionarlo.

       Tengo que admitir que durante mis pruebas me he cargado alguna vez algo pero nada que no se pueda arreglar empezando de nuevo. Además, si finalmente me decido a utilizarlo en casa ya me andaré con más cuidado y pensaré bien lo que hago antes de estropearlo. Todavía no tengo muy claro si lo haré o no porque en caso de fallo no creo que sea lo mismo intentar recuperar una partición ext3 que una lvm, en fín, me tendré que informar.

    6 comentarios:

    Anónimo dijo...

    Hola Ivan,

    Muy bueno el articulo b"Linux y LVM". Tengo algunos comentarios :

    - Dejar solo 45GB de 320! Me parece poco, no? :p
    - En tu VM, no es necesario particionar el disco sda en sda1 para
    hacer un PV, puedes usar el sda directamente
    - "Una vez creado (el PV) podemos añadirle los distintos Volume Group
    (VG) que queramos. En mi caso crearé sólo uno": conceptualmente, no
    añades VGs a un PV. Es al reves. Creas un VG con los PVs. Un VG puede
    tener entre 1 y n PVs. Pero un PV solo puede pertenecer a un VG.
    -Sobre la linea que pones en el fstab, el ultimo "1", deberia ser un
    2. En el man fstab pone: "The root filesystem should be specified with
    a fs_passno of 1, and other filesystems should have a fs_passno of 2."
    :-) Solo el root deberia tener 1, los demas un 2 (ya que se chequearan
    en 2o paso)

    Ya puestos, investiga el tipo de fs XFS, y que combinado con la
    funcionalidad de snapshots de LVM permite hacer backups consistentes
    de los filesystems (mira mi articulo al respecto).

    Ciao,
    Alex

    Iván dijo...

    Gracias por los comentarios Alex, ya he modificado el artículo.
    Sólo una cosa, a linux le he dejado el mismo espacio que a windows, 45GB, pq tengo una partición de 210GB de datos, así que está en igualdad de condiciones ;-).

    Saludos, Iván.

    Anónimo dijo...

    ¡Hola!

    Me pasé por aquí hace muchos días (después de que lo publicaras) pero no pude dejar un comentario... ¿Estaban deshabilitados o algo?

    Me ha gustado mucho el tema y sobre todo el artículo en sí mismo. Conozco bastante bien el LVM en HP-UX y aunque sabía que también había para Linux (incluso algunas distribuciones te lo comentan cuando las estás instalando), nunca lo había visto en acción... Por tanto, ¡muchas gracias por enseñárnoslo!

    Sin embargo, yo no creo que lo use en los PC de casa (para probar sí claro, a lo mejor como tú, en imágenes virtuales ;-) ), porque aunque en sistemas muy críticos tiene mucho sentido, yo en casa, cuanto más grandes los filesystems, mejor... Si no, siempre se te está llenando el /var cuando te sobra la mitad de /usr y cosas así... Fíjate que incluso tengo la costumbre de no hacer partición de swap y luego configurar la swap en un fichero... Aunque tenga menos rendimiento, total casi nunca se usa.

    Lo dicho... ¡Gracias! :-)

    Iván dijo...

    Hola Super Coco!,

    como dices, los comentarios estaban deshabilitados, no sé que pasó que cuando publiqué me debí confundir y los deshabilité sin querer :-(.

    Me alegro de que te haya gustado el artículo. La verdad es que, como he dicho, para casa no sé si es realmente útil (excepto para Alex ;-), pero él se gana la vida con esto).
    Además, como dices, en casa me da igual tener 30 GB libres en un filesystem sin utilizar que tenerlos "desasignados" y esperando en LVM.

    En mi anterior curro, por ejemplo sí que era útil porque solicitabas el tamaño de filesystem que ibas a necesitar y si alguna vez necesitabas más solicitabas una ampliación y listo, pero para casa...

    Saludos, Iván.

    kbuby dijo...

    Hola Ivan

    he estado leyendo tu articulo y me parece que tengo un problema similar al que comentabas y es que mis drivers no son reconocidos.

    Yo instale Debian Etch 4 y tengo 2 discos SAS de 146 Gyga con Raid 1, cuando la maquina arranca me da un error relacionado con e2fsck, etc pero estoy casi seguro que elproblema es que no me carga la tarjeta SCSI (o SAS)antes del LVM

    tengo una controladora Perc 6/i integrated (el servidor es un Power Edge 2900) QuadCore (64 bits)

    yo segui elprocedimiento que das y me arroja esto:

    server1:~# lspci
    00:00.0 Host bridge: Intel Corporation 5000X Chipset Memory Controller Hub (rev 12)
    00:02.0 PCI bridge: Intel Corporation 5000 Series Chipset PCI Express x4 Port 2 (rev 12)
    00:03.0 PCI bridge: Intel Corporation 5000 Series Chipset PCI Express x4 Port 3 (rev 12)
    00:04.0 PCI bridge: Intel Corporation 5000 Series Chipset PCI Express x4 Port 4 (rev 12)
    00:05.0 PCI bridge: Intel Corporation 5000 Series Chipset PCI Express x4 Port 5 (rev 12)
    00:06.0 PCI bridge: Intel Corporation 5000 Series Chipset PCI Express x8 Port 6- 7 (rev 12)
    00:07.0 PCI bridge: Intel Corporation 5000 Series Chipset PCI Express x4 Port 7 (rev 12)
    00:10.0 Host bridge: Intel Corporation 5000 Series Chipset Error Reporting Regis ters (rev 12)
    00:10.1 Host bridge: Intel Corporation 5000 Series Chipset Error Reporting Regis ters (rev 12)
    00:10.2 Host bridge: Intel Corporation 5000 Series Chipset Error Reporting Regis ters (rev 12)
    00:11.0 Host bridge: Intel Corporation 5000 Series Chipset Reserved Registers (r ev 12)
    00:13.0 Host bridge: Intel Corporation 5000 Series Chipset Reserved Registers (r ev 12)
    00:15.0 Host bridge: Intel Corporation 5000 Series Chipset FBD Registers (rev 12 )
    00:16.0 Host bridge: Intel Corporation 5000 Series Chipset FBD Registers (rev 12 )
    00:1c.0 PCI bridge: Intel Corporation 631xESB/632xESB/3100 Chipset PCI Express R oot Port 1 (rev 09)
    00:1d.0 USB Controller: Intel Corporation 631xESB/632xESB/3100 Chipset UHCI USB Controller #1 (rev 09)
    00:1d.1 USB Controller: Intel Corporation 631xESB/632xESB/3100 Chipset UHCI USB Controller #2 (rev 09)
    00:1d.2 USB Controller: Intel Corporation 631xESB/632xESB/3100 Chipset UHCI USB Controller #3 (rev 09)
    00:1d.3 USB Controller: Intel Corporation 631xESB/632xESB/3100 Chipset UHCI USB Controller #4 (rev 09)
    00:1d.7 USB Controller: Intel Corporation 631xESB/632xESB/3100 Chipset EHCI USB2 Controller (rev 09)
    00:1e.0 PCI bridge: Intel Corporation 82801 PCI Bridge (rev d9)
    00:1f.0 ISA bridge: Intel Corporation 631xESB/632xESB/3100 Chipset LPC Interface Controller (rev 09)
    00:1f.2 IDE interface: Intel Corporation 631xESB/632xESB/3100 Chipset SATA Stora ge Controller IDE (rev 09)
    01:00.0 RAID bus controller: LSI Logic / Symbios Logic SAS1078 PCI-X Fusion-MPT SAS (rev 04)
    02:00.0 PCI bridge: Broadcom EPB PCI-Express to PCI-X Bridge (rev c3)
    03:00.0 Ethernet controller: Broadcom Corporation NetXtreme II BCM5708 Gigabit E thernet (rev 12)
    04:00.0 PCI bridge: Intel Corporation 6311ESB/6321ESB PCI Express Upstream Port (rev 01)
    04:00.3 PCI bridge: Intel Corporation 6311ESB/6321ESB PCI Express to PCI-X Bridg e (rev 01)
    05:00.0 PCI bridge: Intel Corporation 6311ESB/6321ESB PCI Express Downstream Por t E1 (rev 01)
    05:01.0 PCI bridge: Intel Corporation 6311ESB/6321ESB PCI Express Downstream Por t E2 (rev 01)
    06:00.0 PCI bridge: Broadcom EPB PCI-Express to PCI-X Bridge (rev c3)
    07:00.0 Ethernet controller: Broadcom Corporation NetXtreme II BCM5708 Gigabit E thernet (rev 12)
    09:01.0 Communication controller: Conexant HSF 56k Data/Fax Modem
    0b:00.0 Ethernet controller: Intel Corporation 82571EB Gigabit Ethernet Controll er (rev 06)
    0b:00.1 Ethernet controller: Intel Corporation 82571EB Gigabit Ethernet Controll er (rev 06)
    0e:0d.0 VGA compatible controller: ATI Technologies Inc ES1000 (rev 02)
    server1:~#
    server1:~# lsmod
    Module Size Used by
    ipv6 286048 26
    button 12192 0
    ac 10376 0
    battery 15496 0
    loop 20112 0
    tsdev 13056 0
    joydev 15360 0
    psmouse 44432 0
    serio_raw 12036 0
    usb_storage 87872 0
    evdev 15360 0
    pcspkr 7808 0
    shpchp 42156 0
    pci_hotplug 20872 1 shpchp
    sg 40744 0
    sr_mod 22436 0
    cdrom 40488 1 sr_mod
    ext3 138512 2
    jbd 65392 1 ext3
    mbcache 14216 1 ext3
    usbhid 45088 0
    dm_mirror 25216 0
    dm_snapshot 20664 0
    dm_mod 62800 9 dm_mirror,dm_snapshot
    ide_generic 5760 0 [permanent]
    sd_mod 25856 2
    ata_piix 20360 0
    libata 106784 1 ata_piix
    generic 10500 0 [permanent]
    ehci_hcd 36104 0
    megaraid_sas 36280 1
    ide_core 147584 3 usb_storage,ide_generic,generic
    uhci_hcd 28696 0
    bnx2 86640 0
    scsi_mod 153008 6 usb_storage,sg,sr_mod,sd_mod,libata,megaraid_sas
    e1000 123968 0
    thermal 20240 0
    processor 38248 1 thermal
    fan 9864 0


    cuando entro a /etc/modules

    solo me aparecen 2 lineas comentadas y una linea que dice loop, no aparecen modulos de ningun tipo

    el kernel que uso es el estable, version 2.6.18-5-amd64

    agradeceria tu orientacion

    Iván dijo...

    Hola kbuby,

    viendo los logs que me pasas, creo que el módulo que tienes que añadir en el archivo /etc/modules es el megaraid_sas.

    Si montas el dispositivo a mano una vez arrancada la máquina funciona correctamente?. En mi caso era así, pero no en el arranque por lo que he comentado en el post.

    Espero que con esto lo puedas solucionar.

    Saludos, Iván.

    Publicar un comentario