Servidor de música ampache + openLDAP + extensiones …

14 03 2010

Este servicio se centra en proveer a sus usuarios de una manera para comunicarse a un servidor que brinde la posibilidad de escuchar archivos de audio ya sea música o voz desde las estaciones de trabajo.  El servicio permite hacer streaming utilizando interfaces conocidas que no sólo permiten escuchar música desde navegadores preestablecidos, sino que además permite extender esta funcionalidad.  Es reconocido además por su integración con los reproductores más usados por parte de la comunidad así como por su fácil configuración y mantenimiento.

# apt-get install ampache mysql

Una vez instalado debemos configurarlo. Debemos para ello acceder a http://localhost/ampache de la máquina donde se instaló. Entre sus pasos más notable se encuentran los datos del servidor mysql que utilizaremos. Debemos cerciorarnos que tenemos acceso de administración para mysql. Una vez que tengamos el sistema listo pasamos a configurarlo para poder utilizarlo desde un cliente. Existen alternativas en cuanto a la forma que utilizaremos este servicio. Se puede emplear directamente desde su interfaz web y mediante el stream desde un cliente. Para comenzar agregaremos a los usuarios que nos interesa que accedan al servicio. Nos podemos para esto auxiliar de la misma interfaz web en la sección User Tools de la interfaz web. Mostraremos aquí además cómo agregar a un grupo de usuarios definidos en un directorio de usuarios definido anteriormente, en este caso openldap. Editaremos el archivo config/ampache.cfg.php ubicado en la ruta del sitio en el sistema. Debemos tener las siguientes directivas fijadas:

auth_methods = "mysql,ldap"
;#########################################################
; LDAP login info (optional)                             #
;#########################################################

auto_create = "true"
ldap_filter = "uid"
ldap_objectclass = "organizationalPerson"
ldap_username = "xxxx"
ldap_password = "yyyy"
ldap_search_dn = "ou=A,dc=a,dc=b,dc=c"
ldap_url = "mmm.mmm.mmm.mmm"
ldap_name_field  = "cn"

Algunos campos deben ser sustituidos por los valores que emplearemos en nuestra configuración. Lo primero a notar es auth_methods que debe contener la directiva ldap. Los atributos ldap_filter, ldap_objectclass, ldap_search_dn, ldap_name_field y ldap_url dependen de cómo esté organizado el directorio que utilicemos. Los campos ldap_username y ldap_password los emplearemos sólo si para acceder al directorio se necesita de un usuario específico, en muchos casos no es necesaria esta configuración.

Una vez que tengamos esto pasaremos a la declaración de las subredes que podrán acceder al servidor. En nuestro entorno por razones de ancho de banda, es aconsejable restringir el servicio solamente a las máquinas de los laboratorios. Para ello debemos modificar las ACL’s del servicio.

A través de la interfaz web pasamos a la sección Admin/Access Control y seleccionamos la opción “Add ACL”. Debemos especificar los siguientes datos.

Name:  	 // Nombre de la regla
Start IP Address: 	(255.255.255.255)
End IP Address: 	(255.255.255.255)
User: 	 // Usuarios que accederán
Level: 	 // Permisos
ACL Type: 	// Tipo de acceso
Remote Key: 	// Clave de acceso

Los que más apremian son los rangos de ip para la subred donde nos encontremos por ejemplo: 10.7.21.0 – 10.7.21.255, los usuarios que pueden acceder, su nivel de acceso y la llave o clave de acceso.

Con esto configurado debemos asegurarnos por último que en el archivo de configuración del servidor esté habilitado un atributo determinado:

config/ampache.cfg.php

access_control = "true"

Si al habilitar este parámetros obtenemos algún error para acceder a la interfaz web se debe a que está mal configurado la regla de acceso para donde estamos accediendo.

El último paso sería ya configurar el catálogo musical que disponemos. Para hacerlo pasamos a Admin/Catalogs y creamos uno nuevo. Los parámetros esenciales son:

Catalog Name:
Path:
Catalog Type:

Cliente

Ya en el cliente podemos acceder de varias formas. Aquí expondremos solamente cómo conectarnos desde algún cliente de escritorio. El servidor exporta una interfaz llamada RPC-XML que permite la conexión de un reproductor independiente de la aplicación que almacena los archivos de audio. Este enlace nos permite desde nuestro reproductor preferido ( siempre que implemente esta funcionalidad ) escuchar música a distancia. Primeramente para conectarnos debemos asegurar que existan dos reglas ACL en el servidor para la subred donde nos encontramos, una para hacer stream y otra para rpc o que permita conexiones rpc. Sin ellas no podremos hacer la conexión.

Entre los reproductores que permiten integrarse con el servidor se encuentran el Amarok 2.0 y el Rhythmbox mediante una extensión.

Rhythmbox

Para instalar el plugin de Rhythmbox lo podemos descargar desde : rb-ampache-003.tar.gz

Este paquete se debe descompactar en $HOME/.gnome2/rhythmbox/plugins. Luego una vez que arranquemos el rhythmbox, en la sección de Edit/Plugins pasaremos a configurar el plugin del Ampache. Debemos especificar para ello la misma información de autenticación que especificamos en los ACL’s del servidor:

Server URL: http://10.7.25.200/music/server/xml.server.php
Username: xxxxx
Password (Key): yyyy
Con estos datos ya nos podremos conectar. Buscamos en el listado de extensiones a la izquierda del reproductor una sección llamada Ampache. Al pinchar sobre ella comenzará a descargar el listado.




Cómo instalar NetworkManager en Debian …

28 08 2008

En este artículo veremos cómo instalar un asistente que nos ayudará a configurar la red automáticamente. Partiremos del punto de que el usuario tendrá configurados apropiadamente sus dispositivos de red. En caso de que no, deberá consultar una guía de cómo montar un controlador para ellos.

Lo instalamos :

# apt-get install network-manager

En caso de que usemos KDE ó Gnome/Xfce, utilizaremos estas variantes respectivamente:

# apt-get install network-manager-kde
# apt-get install network-manager-gnome

Es necesario luego que comentemos el archivo /etc/network/interfaces para que quede de la siguiente forma:

auto lo
iface lo inet loopback

Este paso no es obligatorio pero sí acelera el proceso de detección de la red por parte del NetworkManager. En Debian son necesarios algunos pasos más. Debemos añadir al usuario que usará el NetworkManager al grupo netdev:

# adduser su_usuario netdev

Luego para que funcione correctamente es necesario reiniciar la sesión ya que la modificación de la asociación grupo-usuario no quedará vigente hasta que esto ocurra.

Es posible de que nos topemos con un problemita como este:

nma_dbus_init(): could not acquire its service.  dbus_bus_acquire_service() says: 'Connection "1.38" is not allowed to own the service : "org.freedesktop.NetworkManagerInfo" due to security policies in the configuration file'

Esto ocurre pq en el archivo de configuración que maneja la permisología sobre el cliente existen problemas con el usuario especificado. El archivo /etc/dbus-1/system.d/nm-applet.conf contiene dichos permisos, simplemente añadimos nuestro usuario como una vía “rápida” para resolver el problema. De lo contrario podemos indagar más en el uso del NetworkManager de este fichero:

<policy user="teratux" allow own="org.freedesktop.NetworkManagerInfo" >
<allow send_destination="org.freedesktop.NetworkManagerInfo"/>;
<allow send_interface="org.freedesktop.NetworkManagerInfo>
</policy>
<policy user="root" >
<allow own="org.freedesktop.NetworkManagerInfo" >
<allow send_destination="org.freedesktop.NetworkManagerInfo" >
<allow send_interface="org.freedesktop.NetworkManagerInfo" >
</policy>

Notarán que las políticas para root y para teratux ( el usuario ) son las mismas. Con esto ya debe correr. Para ejecutar el applet, vamos a una consola como usuario normal:

$ nm-applet

Bibliografía





Problemas con ejemplos de Ogre que usan CEGUI …

14 08 2008

Mientras intentaba probar uno de los ejemplos que trae la biblioteca de desarrollo gráfico Ogre me topé con un problema a la hora de correrlo. Logré encontrar la solución en un blog. Fue probada en una pc usando CEGUI 0.6 y Ogre Eihort 1.4.9.

El problema surge a la hora de ejecutar algunos ejemplos de Ogre que usan CEGUI:

terminate called after throwing an instance of 'CEGUI::FileIOException'

Si utilizamos Ogre 1.4.* y Cegui 0.5.x ó 0.6.x es muy probable que ocurra. En el código de muchos ejemplos se intenta cargar un archivo xml ( TaharezLook.scheme ) el cual no puede ser interpretado correctamente por Cegui ( al menos eso parecía ). El problema no radica en Cegui sino en un intérprete externo que utiliza. Por defecto es XercesParser el que no funciona bien. Con cambiar el intérprete tenemos. Si utilizamos una versión de Cegui precompilada ( proveniente de un paquete en un repositorio, u otra fuente ) necesitamos recompilar la biblioteca. Esto servirá igual si usamos código fuente.

Desde el directorio donde está el código fuente hacemos:

./configure --with-default-xml-parser=TinyXMLParser

Recompilamos el código fuente y lo instalamos nuevamente. Según el artículo es necesario también recompilar Ogre. Me pudo funcionar sin hacerlo pero si aún persiste el problema inténtenlo.

Bibliografía

Problema con Ogre y CEGUI en ejemplos





Cómo compilar un núcleo de Linux …

1 07 2008

Un núcleo ( kernel ) es el componente central de muchos sistemas operativos. Sus responsabilidades incluyen el manejo de los recursos del sistema ( la comunicación entre hardware y software ). Podemos decir que es una capa importante en la arquitectura del sistema para la compatibilidad de los componentes que tenemos como herramientas para nuestro trabajo. Existen varios núcleos los que se diferencian tanto en estructura como en rendimiento, como por ejemplo el núcleo de BSD, el de Linux de Torvalds, el Hurd de GNU, el de Windows, etc …

En ocasiones perseguimos optimizar un sistema construyéndolo con las opciones más específicas posibles. Quizás por razones de limitaciones de recursos, o la necesidad de habilitar alguna opción específica que por defecto no viene construida en la mayor parte de las distribuciones, la configuración de los núcleos se presenta como una opción viable para la personalización y conocimiento de los componentes de nuestro ordenador.

Este artículo cubrirá solamente cómo configurar y construir un núcleo de Linux para las distribuciones GNU/Linux existentes.

Veremos algunas propuestas que podemos tener en cuenta como una guía para llevar a cabo esta tarea.

Identificación de Hardware y Software

Primeramente necesitamos tener conocimiento de los componentes del sistema donde correrá nuestro núcleo. Esto puede variar tanto desde un conocimiento mínimo como hasta uno detallado de nuestro ordenador, tanto para los componentes de hardware como de software ya que existen muchas funcionalidades que necesitan ser habilitadas en el núcleo para ejecutar determinados programas en un modo de operación conocido como “espacio de núcleo” ( kernel space ). Existen programas que nos pueden ayudar para averiguar el hardware existente en nuestra pc.

$ lspci
00:00.0 Host bridge: Intel Corporation Mobile 945GM/PM/GMS/940GML  ...
00:01.0 PCI bridge: Intel Corporation Mobile 945GM/PM/GMS/940GML ...
00:1b.0 Audio device: Intel Corporation 82801G (ICH7 Family) ...
...
..
00:1f.0 ISA bridge: Intel Corporation 82801GBM (ICH7-M) LPC ...
00:1f.2 IDE interface: Intel Corporation 82801GBM/GHM ...
00:1f.3 SMBus: Intel Corporation 82801G (ICH7 Family) ...
01:00.0 VGA compatible controller: ATI Technologies Inc Radeon Mobility X1400
03:00.0 Ethernet controller: Broadcom Corporation BCM4401-B0 100Base-TX ...
03:01.0 FireWire (IEEE 1394): Ricoh Co Ltd Unknown device ...
03:01.1 Generic system peripheral [0805]: Ricoh Co Ltd R5C822 SD/SDIO/MMC/MS/MSPro ...
..
.
0b:00.0 Network controller: Broadcom Corporation Dell Wireless 1390 WLAN Mini-PCI Card (rev 01)

$ lsusb

Bus 005 Device 001: ID 1d6b:0002
Bus 004 Device 005: ID 413c:8126 Dell Computer Corp.
Bus 004 Device 007: ID 0a5c:4503 Broadcom Corp.
Bus 004 Device 004: ID 0a5c:4500 Broadcom Corp.
Bus 004 Device 006: ID 0a5c:4502 Broadcom Corp.
Bus 004 Device 001: ID 1d6b:0001
Bus 002 Device 003: ID 16d8:6803
Bus 002 Device 001: ID 1d6b:0001
Bus 003 Device 001: ID 1d6b:0001
Bus 001 Device 001: ID 1d6b:0001

Veremos los elementos más importantes para tomar en consideración y cómo podemos identificarlos en estas herramientas que usamos ( lspci y lsusb ). Necesitamos identificar el chipset de la placa madre ( Host bridge ), la tarjeta de audio que tiene ( Audio device ), la tarjeta de video ( VGA controller ), la tarjeta de red alámbrica ( Ethernet controller ), si existe alguna otra interfaz de red , en este caso es inalámbrica ( Network controller ), la capacidad de la memoria de nuestro sistema ( podemos verla con el comando free ), la capacidad del disco duro que tenemos ( con el comando fdisk -l ) y algún otro periférico específico que estemos usando ( tarjetas capturadoras de video, convertidores, etc … )

Proceso de configuración del núcleo

Una vez que conozcamos lo que tenemos en nuestra pc pasaremos a configurar el núcleo para luego poder construirlo. El mecanismo de configuración opera de forma tal que se separa el código del núcleo de su configuración considerándola un estado más del núcleo. Imagínense que pudiéramos tener varias configuraciones con solo portar los archivos de configuración tendríamos listo varios núcleos. Los archivos de configuración almacenan símbolos y estados para ellos. Los estados le dicen al núcleo cómo se debería compilar esa funcionalidad, como un módulo M, como un elemento interno Y o si no se debería construir N. Debemos tener en cuenta a la hora de construir el núcleo que si construimos alguna funcionalidad como un módulo ganaremos en espacio físico del mismo, pero perderemos en tiempo de carga ya que los módulos se demoran en cargar. Por otra parte incorporando las funcionalidades nos limita desde el punto de vista del espacio, algo que no puede ser factible en escenarios de dispositivos empotrados.

Para comenzar necesitamos elegir qué forma usaremos para configurarlo .

Forma Directa

Ya indirectamente sugerimos una, aunque es más complicada : podemos editar manualmente los archivos de configuración y habilitar las opciones que querramos. Bastará con cualquier editor de texto.

Ncurses

Tenemos otra forma de acceder a la configuración a través de una interfaz visual. Podemos usar una en modo consola basada en las bibliotecas ncurses que posibilitan hacer aplicaciones en modo texto con una alta interactividad.

# apt-get install libncurses5-dev

Para levantar la interfaz vamos al directorio donde reside el código fuente del núcleo que vayamos a compilar y ejecutamos:

# make menuconfig

Veremos una interfaz similar a esta en nuestra terminal:

Gconfig o Xconfig

Para aquellos que deseen usar interfaces visuales más interactivas existen opciones para ello. Podemos construir nuestro núcleo usando Gconfig basada en bibliotecas de GTK o con Xconfig construidas con las bibliotecas visuales de X directamente.

# make gconfig

Configuración del núcleo

En esta guía nos centraremos en las funcionalidades principales que harán que nuestro sistema corra correctamente en nuestra máquina. Nos concentraremos en los dispositivos que nombramos al principio : Procesador, memoria … etc … Existen guías dedicadas para la instalación de computadoras específicas, con configuraciones específicas. Ello no será tratado a continuación. Trataremos de brindar una guía de donde ubicar los recursos más utilizados así como de una filosofía útil de configuración y manejo de la construcción de un núcleo de linux a través de sus interfaces. Puede ser que en ocasiones se nos quede algún elemento por habilitar tras su construcción propiciando que nuestro sistema no arranque, o carezca de algunas funcionalidades. A medida que se configuren más núcleos se irá perfeccionando esta técnica y aprendiendo de sus componentes.

La configuración en las interfaces se presenta como una jerarquía de elementos por la cual podemos ir navegando y activando las funcionalidades que querramos utilizar. Existen en ocasiones interrelaciones que no podemos obviar y que en ocasiones nos pueden traer problemas si no conocemos bien el dispositivo que querramos habilitar. Trae además una ayuda contextual que nos puede asistir para decidir si incluimos o no algún recurso en nuestro núcleo.

Siempre que empecemos es aconsejable localizar los elementos críticos de nuestro sistema, habilitarlos y luego ir en busca de la optimización ( si es esto lo que queremos ). Debemos notar que algunos elementos vienen habilitados por defecto, generalmente los de uso más común. En la jerarquía están clasificados según su rol en el sistema, basta simplemente buscar los que queramos configurar y trabajar sobre ellos, por ejemplo:

Processor type and features // Procesador y memoria
Networking // Soporte para sistemas con conectividad ( redes, bluetooth, infrarojo, etc ... )
Device Drivers // Soporte para controladores de dispositivos ( discos SATA, sonido, gráficos, dispositivos I/O, etc ... )
Filesystems // Involucra los sistemas de archivos que usaremos ( ext, vfat, ntfs, nfs , etc ... )

Parches y actualizaciones

En algunas ocasiones en el proceso de desarrollo de un núcleo surgen momentos para los cuales es necesario crear elementos autocontenidos que presentan mejoras, actualizaciones, resoluciones de fallas, o adiciones de funcionalidades nuevas al código. Estos elementos se denominan parches. Básicamente contienen una estructura similar a esta:

parche.patch

Index: archivo
===================================================================
--- archivo
+++ archivo

Texto constante

- Texto a eliminar
+Texto a añadir

Como notarán trabaja mediante un proceso de eliminación y adición de elementos. Al aplicarse sobre un archivo este localizará el cambio y lo aplicará. Para aplicarlo ejecutamos el siguiente comando asumiendo que nos encontramos en la carpeta del archivo a ser aplicado:

# patch < parche.patch

Construcción

Luego de la configuración de un núcleo pasaremos a su construcción. Un núcleo termina siendo un archivo compactado que se ubica generalmente junto a los archivos de arranque del sistema y es llamado por una entrada en el listado del gestor de arranque que utilicemos. Mostraremos dos vías aquí para su construcción la vía tradicional para todas las distribuciones y la vía de Debian utilizando make-kpkg

Vía estándar

Comenzaremos con un comando que creará las interdependencias necesarias en nuestro árbol de núcleo y lo limpiará de construcciones previas:

# make dep && make clean

Luego pasaremos a construir el archivo contenido:

# make bzImage

Luego pasamos a construir los módulos del núcleo:

# make modules

Copiaremos entonces nuestro núcleo construido en el directorio de arranque ( por lo general /boot )

# cp arch/i386/boot/bzImage /boot/nuevo_nucleo

Instalamos los módulos en /lib:

# make modules install

Instalamos el núcleo:

# make install

Luego construimos una imagen initrd. Por sus siglas en inglés es un sistema de archivos temporal usado por el kernel Linux durante el inicio del sistema. Es usado típicamente para hacer los arreglos necesarios antes de que el sistema de archivos raíz pueda ser montado.

# cd /boot
# mkinitrd -o initrd.img-nuevo_nucleo nuevo_nucleo

En este caso usamos el gestor de arranque GRUB. Editamos el archivo /boot/grub/menu.lst y añadimos nuestro módulo para que sea usado en un futuro arranque:

title           Núcleo Nuevo compilado
root            (hd0,1) // Debe ir el identificador de la partición donde está la raíz del sistema
kernel          /nuevo_nucleo root=/dev/sda3 ro i386 // Debe ir el nombre del dispositivo de la raíz
initrd          /boot/initrd.img-nuevo_nucleo
savedefault
boot

Y listo …

Vía Debian

El equipo de Debian provee de un mecanismo más simple para la construcción de un núcleo con el comando make-kpkg:

# apt-get install kernel-package

Cuando tengamos configurado el núcleo simplemente ejecutamos:

# make-kpkg --initrd kernel_image

Su resultado será un archivo .deb ubicado en la carpeta padre a la actual y que al instalarlo nos ubicará el núcleo construido en su ubicación final y nos creará automáticamente su llamado desde el menu.lst. Si consultan el manual del comando verán que puede ser usado para generar cabeceras, números de revisión, versiones, etc …

Una vez instalado veremos que una copia del archivo de configuración terminará en /boot/config. Si quisiéramos aplicar esa u otra configuración para otro código de un núcleo utilizando la interfaz ncurses por ejemplo usamos:

# cp /boot/config.nucleo_nuevo /usr/src/linux-source/.config
# make oldconfig menuconfig

Debemos tener en cuenta que cualquier modificación que podamos hacer a nivel de núcleo puede traer implicaciones en el funcionamiento de nuestro sistema operativo. Los procesos que corren a este nivel son considerados críticos es por eso que debemos tener cuidado con lo que habilitemos y lo que no. La ayuda contextual sirve de mucho para ello. Veremos que con más práctica iremos dominando esta técnica.

Referencias:

Wikipedia
Guía de compilación





Guía de instalación de Debian en VIT D2010

14 05 2008

En este artículo hablaremos un poco sobre el modelo de esta laptop y sobre cómo se le puede instalar Debian con soporte para los dispositivos que trae.

CPU: Intel Core 2 Duo 2 GHz
Chipset: Intel 965M
Red inalámbrica: Intel 3945
Red: Realtek 8111/8168 Gb
Audio: Intel 8280 ICH8
Video: Intel 965
Firewire: Sí
Bluetooth: No
Lector SD: Sí
Modem: Sí

Video

Aún no se ha podido configurar.

Red Inalámbrica

La red inalámbrica que trae este modelo es una Intel Wireless 3945. Iremos a este vínculo

Audio

El audio se instala bastante fácil. Por defecto en la mayoría de los núcleos debe venir habilitado. Si no lo tenemos comprobemos que tenemos este símbolo en el núcleo:

CONFIG_SND_HDA_INTEL

Bibliografía

http://intellinuxwireless.org/Intel Wireless
Intel Graphics





Debootstrap ….

29 04 2008

Aquí veremos cómo montar un sistema auxiliar para uso o pruebas usando la herramienta que provee Debian GNU/Linux llamada debootstrap. Como reza su manual de uso debootstrap puede ser usado para instalar Debian en un sistema sin un disco de instalación al igual que puede ser usado para ejecutar variantes del sistema en un ambiente controlado por chroot. Así podremos crear una instalación mínima o completa de un sistema Debian con fines de prueba o de uso.

El comando chroot levanta una terminal interactiva para un directorio raíz específico. Más adelante veremos algunos elementos de su funcionamiento. Para comenzar instalaremos ambas herramientas:

# apt-get install debootstrap

Comenzaremos por montar el sistema en un directorio determinado. Para el ejemplo nos conectaremos a debian.org e instalaremos un sistema base estable:

# mkdir /opt/bootstrap_test
debootstrap stable /opt/bootstrap_test http://ftp.debian.org/debian

Esto comenzará a instalar el sistema base en la carpeta que especificamos. Luego que termine podremos comenzar a usar nuestro sistema:

# chroot /opt/bootstrap_test

Veremos que nos situa en una terminal. Esta terminal se encuentra dentro de nuestra máquina virtual ( por llamarla de algún modo ). Chroot lo que hace es sustituir la raíz ( / ) del sistema por la estructura de directorios que hayamos creado en alguna ubicación del sistema.

Enlace de dispositivos

Notaremos que cuando intentamos utilizar algún dispositivo del sistema anfitrión desde el sistema cliente estos no aparecen en el directorio. Como ambos sistemas se ejecutan sobre una misma máquina partiremos de la afirmación que los dispositivos para ambas serán los mismos. Por tanto simplemente crearemos enlaces entre los dispositivos en la máquina anfitriona y la cliente. La vía que usaremos será con el fstab. Haciendo un enlace simbólico con ln no es suficiente, ya que estos apuntan a direcciones relativas o absolutas que se modifican una vez que entremos en nuestra máquina cliente. Sin embargo el fstab trabaja a nivel de dispositivos y persiste de forma más conveniente para hacer este tipo de enlaces. Añadimos al fstab:

/dev /opt/bootstrap_test/dev none bind 0 0
/proc /opt/bootstrap_test/proc none bind 0 0
/tmp /opt/bootstrap_test/tmp none bind 0 0

Esto nos enlazará no solo los dispositivos sino también la carpeta temporal /tmp y la carpeta donde se muestra información sobre servicios en el sistema /proc.

Aplicaciones visuales

Otro elemento que nos puede ayudar para poder trabajar en nuestro ambiente controlado es habilitar la ejecución de aplicaciones visuales. Quizás notemos que cuando tratamos de ejecutar alguna aplicación visual recibimos este error:

Xlib: connection to ":0.0" refused by server
Xlib: No protocol specified
(:31539): Gtk-WARNING **: cannot open display:

Para poder utilizar el servidor gráfico corriendo en la máquina anfitriona podemos ejecutar un comando que habilita los permisos para la máquina cliente. En el ejemplo habilitaremos para que se puedan realizar conexiones desde todas las máquinas. Si se desea una permisología más detallada pueden consultar el manual de uso de la aplicación. Esto lo ejecutaremos en la máquina anfitriona:

# xhost +

Al ejecutarlo nos notificará que el acceso se ha habilitado para todas las máquinas.

Arranque del sistema

Cuando tengamos nuestro sistema encapsulado preparado podemos continuar utilizándolo desde su entorno controlado o podemos también ponerlo a correr en nuestro sistema. Quizás el usuario haya querido probar alguna funcionalidad nueva y cuando esté decidido a ponerla en uso quiera que su sistema anfitrión tenga esa imagen del sistema cliente. Para ello debemos ubicar nuestro sistema cliente en otro dispositivo en nuestro sistema. Por ejemplo veremos cómo puede estar estructurado nuestro sistema:

$ df
Filesystem           1K-blocks      Used Available Use% Mounted on
/dev/sda3             19228308  16364452   1887104  90% /
tmpfs                   517412         0    517412   0% /lib/init/rw
udev                     10240       108     10132   2% /dev
tmpfs                   517412         0    517412   0% /dev/shm
/dev/sda2               139999     22850    109920  18% /boot
/dev/sda4             46878848  26403112   7586448  68% /home
/dev/sda5             10000000         0  10000000   0% /opt/bootstrap_test

Noten como la “/” está asignado a un dispositivo en este caso /dev/sda3. Podemos crear nuestro sistema debootstrap en otro dispositivo como aparece al final en el listado. Luego modificaremos el arranque de nuestro sistema y asignarle al arranque que cargue con el núcleo instalado y con esta raiz nueva. En el ejemplo usamos el gestor de arranque GRUB. Para ello iremos a /boot/grub/menu.lst:


title           Debian GNU/Linux, kernel 2.6.24.3-e1505-
root            (hd0,1)
kernel          /vmlinuz-2.6.24.3-e1505- root=/dev/sda3 ro i386
initrd          /initrd.img-2.6.24.3-e1505-
savedefault

title           Debian GNU/Linux, kernel 2.6.24.3-e1505- (single-user mode)
root            (hd0,1)
kernel          /vmlinuz-2.6.24.3-e1505- root=/dev/sda3 ro i386 single
initrd          /initrd.img-2.6.24.3-e1505-
savedefault

Noten como se especifica “root=xxxxx” como el sistema raiz a cargar. Simplemente lo modificamos para que acepte nuestro nuevo dispositivo:

.
.
.......  root=/dev/sda5
.
.
.......  root=/dev/sda5
.

Reiniciamos, y listo !!! tendremos nuestro nuevo sistema corriendo. Si por alguna razón no levanta editamos el gestor de arranque cuando arranque el sistema, modificamos la línea referente al root y restauramos los valores anteriores.





Compilación distribuida …

20 04 2008

Para los que desarrollen notarán que muchas veces empleamos una cantidad de tiempo determinada a la hora de construir nuestro proyecto. Puede llegar incluso a parecer bastante, más aún si el número de dependencias de nuestro proyecto es alto y cada una en sí compleja. Existen herramientas que nos pueden auxiliar para optimizar el tiempo de compilación de nuestro proyecto. A continuación expondremos algunas conocidas y cómo usarlas:

distcc

Quizás una de las que más nos pueda ayudar sea distcc ( Distributed C/C++ Compiler ). Sirve para distribuir la construcción de nuestro proyecto de C, C++, Objective C ú Objective C++ a través de un grupo de ordenadores o incluso en nuestra misma máquina. Lo mejor que tiene es que no necesita que todas las máquinas en el grupo de compilación tengan el mismo sistema de archivos, relojes sincronizados, las mismas bibliotecas o cabeceras instaladas, arquitecturas o incluso el mismo sistema operativo. Sí requiere que se use el mismo compilador en todas. Para esta guía se utilizó el compilador gcc de GNU que nos ayudará en cuanto a la portabilidad si montaremos la compilación a través de distintas arquitecturas o sistemas. Para comenzar:

# apt-get install distcc distccmon-gnome

El programa distccmon-gnome nos ayudará a monitorear el proceso de compilación a través de las máquinas.

El distcc opera a modo de cliente/servidor. En la máquina que recibirá el paquete a compilar estará escuchando un servidor: distccd y en la máquina que pide el servicio se usará un cliente: distcc.

Servidor

Para montar el distcc como servidor podemos auxiliarnos del fichero de configuración /etc/default/distcc que se instala con el paquete:

STARTDISTCC="true" # define si levanta el servicio con el arranque del sistema
ALLOWEDNETS="xxx.xxx.xxx.xxx" # Redes permitidas, escucha en estas redes para compilar
LISTENER="127.0.0.1" # Interfaz desde el cual escuchará, por defecto es local 127.0.0.1

Luego:

# /etc/init.d/distcc restart

Si no podemos lograr levantar el servidor mediante el demonio por esta vía podemos usar la línea de comando directamente. Tomando como referencia los datos anteriores el comando quedaría así:

# distccd --daemon --allow xxx.xxx.xxx.xxx

Cliente

Para correr el cliente tenemos variantes todas explicadas en el manual de uso de distcc:

# man distcc

Existen 3 modos de uso de distcc. Sólo se recomienda usar uno, y no mezclar variantes. Aquí explicaremos solamente 2.

Modo máscara

El primero se llama módo enmascarado ( masquerade mode ), y lo que hace es interceptar las llamadas al compilador ejecutándose él por defecto. Lo bueno de esta vía es que tendremos disponible siempre implícitamente el distribuidor para compilar en otras máquinas lo que nos propicia que podamos compilar distribuidamente con todas las herramientas posibles, lo malo es que si no nos encontramos en un ambiente cerca de otras máquinas el distribuidor tratará de resolver la compilación por su cuenta. Es aquí donde quizás sea útil definir la variable DISTCC_FALLBACK. Por defecto el distribuidor si falla en otra pc, tratará de compilar localmente. Podemos eliminar ese modo de operación con:

# export DISTCC_FALLBACK=0

Para habilitar el modo máscara crearemos un directorio en el cual redireccionaremos los vínculos a los compiladores reales en nuestra pc, luego declararemos ese directorio en la variable PATH que define rutas globales para los recursos en la pc. Aquí definiremos la ruta nuestra antes que las restantes para que trate de buscar los compiladores en la ruta definida y no en la ruta real. De este modo enmascaramos su uso. Quedaría así:

# mkdir /usr/lib/distcc/bin
# cd /usr/lib/distcc/bin
# ln -s ../../../bin/distcc gcc
# ln -s ../../../bin/distcc cc
# ln -s ../../../bin/distcc g++
# ln -s ../../../bin/distcc c++

Luego editamos el fichero /etc/bash.bashrc para añadir la ruta antes de las reales. Quedaría así la línea referente a la variable PATH:

if [ -d /usr/lib/distcc/bin ]; then
export DISTCC_HOSTS="distcc"
export PATH=/usr/lib/distcc/bin:$PATH
fi

La variable DISTCC_HOSTS define las máquinas en las que enviaremos la petición de compilar.

Modo explícito

El segundo método se vale en definir a la hora de compilación todas las directivas para distribuir la compilación. Necesitamos declarar dos variables para ello. La primera es DISTCC_HOSTS que vimos anteriormente. La segunda se le pasa como un argumento a la herramienta que esté compilando:

$ make -j8 CXX="distcc"

Esto es un ejemplo de cómo se puede llamar. La opción j8 declara cuantos trabajos de compilación como máximo se deben ejecutar. Por defecto cada núcleo de procesamiento procesa 2 trabajos en paralelo. Para los casos que compilaremos en una pc con 2 núcleos tendremos un máximo de 4 trabajos máximos.

Mientras se esté compilando podemos ejecutar el distccmon-gnome que mostrará una ventana con el estado del proceso.