Obsolescencia programada: experiencias en primera persona

Uno de los puntos que más ha marcado a la humanidad en las últimas generaciones es su relación con la tecnología. Una relación que adopta muchas formas; la más usual, sin embargo, suele ser la dependencia. Mucha gente ya no conoce formas de comunicarse o transmitir información que no sean las que ofrece la tecnología; pero sobre todo, una forma especial de tecnología como parte del sistema económico imperante, en el cual todo es objeto de mercado.

Hace ya varios años que se emitió Comprar, tirar, comprar: un documental que dio mucho de qué hablar. Ha servido para ilustrar el concepto de obsolescencia programada, para alimentar el pensamiento conspiracionista y también para ser objeto de debate por parte del escepticismo organizado. Y no pensé que fuera a tocarme directamente, pero llega un momento en que, por más que uno pueda seguir existiendo con Windows 95 98 Millenium XP, el entorno circundante podría volver a la Edad de Piedra si desapareciera sólo uno de los avances tecnológicos omnipresentes hoy en día.

Comencemos con el PC. No sé quién o cuando se creó la idea de que la tecnología debía acompañar a las personas donde quiera que estuviesen, de que para acceder a la tecnología y la información no hacía falta anclarse junto a un PC. Así nació el concepto de movilidad, en la forma de smartphones y tablets, que ofrecían la posibilidad de acceso tecnológico unicamente con fines de entretenimiento y consumo, pero que por más que se hablara de la “muerte del PC”, nunca iban a reemplazarlo como herramienta de trabajo (porque sí, la gente que trabaja aún necesita y quiere un PC). Después de odiar a muerte a Windows Millenium arrastrándose en un viejo clón AMD 486, lo cambié por un Dual Core con Windows XP desde hace unos siete años y medio, que debe ir al doctor en estos días pero que aún funciona. Y si quisiera seguirle el juego a las distribuciones de Linux con sus versiones cada seis meses, lo seguiría usando con arranque dual.

El problema es que mi oficio me obliga a usar ciertas versiones de programas que ya no corren en un procesador que aún arrastra la marca Pentium (por lo cual no me lo reciben ni como donación). Y es la clase de software por la cual Linux sigue sin ser una opción: si una versión de AutoCAD tan obsoleta como la 2012 funciona en modo “garbage” con Wine, no tiene sentido hablar de las demás. Hace unos meses compré un portátil con Windows 8.1, un Toshiba (maquinón para trabajar como pocos, pero Toshiba decidió abandonar el mercado doméstico y enfocarse en empresas). luego de ver cómo en el trabajo se compraron varios portátiles Asus con Windows 8, obligándome (por ser parte de mi trabajo) a actualizarlos a la versión 8.1. Ahora que Microsoft ofrece la posibilidad de actualizar a Windows 10, me pregunto si será obligatorio pasarlos de Windows 8 a Windows 10 (porque por muchos hackeos al registro, pasar a 8.1 es casi obligatorio).

Uno supone que después del fiasco de Windows Vista, tanto Microsoft como los fabricantes habrán coincidido en que el equipo de mejor funciona no es el que tenga el procesador más potente, sino el que tenga el sistema que use los recursos de hardware de modo más eficiente. Por eso es fácil ver equipos que funcionan mejor con Windows 8 que con el 7, por ejemplo. Aún así, me temo que las nuevas características de conextividad y “experiencia de usuario” evolucionen más rápido que la inteligencia del usuario final, cuando por ejemplo, los clientes de la empresa en que trabajo piden información digital que luego son incapaces de descargar, y uno termina copiándola en un CD para llevárselo en el transporte público.

Otro ejemplo es el de los smartphones. Tengo un Android de gama baja, con algunas aplicaciones muy útiles (como TransmiSITP, por ejemplo), pero soy muy ingenuo al pensar que el resto del entorno lo usa para llamadas y mensajes. Mi jefe casi me obliga a instalar WhatsApp porque le sale muy caro enviar SMS. Yo me opuse (si la empresa me paga un plan de datos, bien; si no, no), pero un compañero con su flamante Samsung parece haber olvidado el concepto de mensaje de texto. Cámaras de chorrocientos megapixeles para selfies o fotos al espejo con destino al facebook vía 10G, para los mismos usuarios que mencioné antes, que cambian de smartphone cada año pero incapaces de hacer aquello que podía hacerse con el Nokia 1100. El otro extremo es el de la secretaria, que piensa que el celular es un “fijo portátil”.

Por último, impresoras. Señores de Lexmark: ¿por qué algunos de sus modelos están diseñados con partes imposibles de conseguir como repuesto, para solucionar daños que ocurren a escasos meses de haberse vencido la garantía? Y para colmo, salen con un firmware atrasado en dos versiones a la de Windows. Tenemos un multifuncional que dejó de funcionar como impresora porque aquella parte que arrastra el papel es más difícil de conseguir que el santo grial. O bueno, funciona a veces, porque empiezo a pensar que las impresoras son la primera forma de vida inteligente basada en silicio:

2011-09-21-582g

Teorías las hay de todo tipo. La teoría de reducir la población mundial no tendría sentido si por ejemplo, se quieren vender millones de smartphones de gama media y baja. Regla N° 1 del capitalismo: crear consumidores (literalmente hablando). Otra teoría dice que la tecnología es una forma de ortopedia que reemplazó facultades que alguna vez tuvo la humanidad (la telefonía móvil reemplazó a la telepatía, por ejemplo). O también la teoría de que la obsolescencia programada obedece al plan de que sólo sea reconocido como información, conocimiento y cultura aquello transmitido mediante un gadget. Es cierto que ya no usamos la escritura cuneiforme, pero no justifica la idea de reemplazar toda forma de expresión humana por las posibilidades de una pantalla táctil. A veces la idea de un apocalipsis es pensar con el deseo, pero si llegara a ocurrir una no muy improbable tormenta electromagnética, por ejemplo, me pregunto quienes serían los primeros en regresar a la Edad de Piedra.

Anuncios

A vueltas con los lectores de RSS

En su momento comenté que el único uso que daba a mi cuenta de Google era el uso de Google Reader, el cuál cerró en julio de 2013, justo cuando me había suscrito ya a un montón de blogs vía RSS. Después de probar varias opciones de entre todas las que aprovecharon el cierre del servicio de Google, por apariencia, organización (y porque no tengo tiempo de probarlas todas) elegí Bloglines, un lector de RSS clásico que amenazó con cerrar en 2010 y que hoy está fuera de línea.

Portapapeles01
Netvibes, lector de RSS.

Bloglines ofrecía un servicio entre suficiente y justo lo que buscaba a la hora de reemplazar a Google Reader: un árbol de categorías a la izquierda y vista previa de contenido a la derecha. Por eso descarté otras opciones que sólo mostraban entradas en miniatura o títulos sin posibilidad de ordenar por categorías.

Justamente acabo de enterarme que WordPress tiene una opción para leer blogs, eligiendo la opción Lector (arriba a la izquierda). Sin embargo, sólo ofrece vistas previas de contenido (con la apariencia del escritorio de WordPress) y no permite categorizar las suscripciones.

El problema con Bloglines, al día de hoy, es que su servidor está caído; tanto bloglines.com como dashboard.bloglines.com están fuera de línea. Sin embargo, en Netvibes se puede entrar con las credenciales de la cuenta de Bloglines, crear un archivo .xml de ese escritorio (Cuenta/Salvaguardar datos), e importarlo allí mismo para crear otro escritorio, o en otro lector de RSS.

Como muchos usuarios, prefiero un servicio web en lugar de instalar programas de escritorio o complementos en navegadores de otros equipos. Por eso no me gustaron opciones como Thunderbird, el cliente de correo electrónico de Mozilla, que muestra categorías pero no los blogs de cada una, sólo la vista previa de los contenidos.

La última opción por estudiar era la de alojar un lector de RSS en un servidor web. La única opción que encontré fue TinyTinyRSS, un lector para instalar en servidores FTP, con licencia GPL, y que se puede instalar automáticamente en servidores gratuitos de alojamiento web como Hostinger. Sin embargo, es lento al cargar las fuentes, la apariencia no es muy agradable (aunque se pueden instalar temas), y carece de funciones como marcado automático de entradas leídas. También existen servicios para instalar como NewsBlur, que son de pago.

TinyTinyRSS, lector de RSS alojado en servidor web.

Los feeds son y seguirán siendo una herramienta útil e indispensable de acceder a la información o compartirla, por más que se quiera frivolizar esto último al dar mayor importancia a las redes sociales por encima de los blogs; para muchos usuarios (justamente aquellos cuya opinión es la que más impacto tiene), las redes sociales como fuente de información no son suficientes.

Otra cosa: detrás de todo servicio gratuito en Internet se esconde el objetivo que diferencia a una empresa de una ONG: “si es gratis, podemos cerrar cuando nos dé la gana”. Google consideró que su Reader no era rentable; al parecer Bloglines puede cerrar definitivamente. Aún así, los feeds siguen siendo parte importante de la web, y si algo lo demuestra es que por algo no faltan opciones.

¿Por qué Excel 2013 es tan lento con las macros?

Ha de existir una muy buena razón para que el software que la mayoría de la gente usa como estándar de facto, exija cada vez más y más recursos de sistema; y al mismo tiempo, sea cada vez más pesado y lento. Por ejemplo, Excel, el gestor de hojas de cálculo de Microsoft. Para muchos nostálgicos, XP  fue la última buena versión de Windows (el sistema de reparación de conexiones de red en las versiones superiores parece diseñado por burócratas), y para los usuarios que recién aprenden a combinar la ofimática con la programación, la última buena versión de Excel fue la 2003. ¿Por qué? Porque a partir de Excel 2007 las macros de Visual Basic no es que sean lentas: se arrastran.

No creo que los brillos de Office 2007 o la interfaz Ribbon justifiquen pasar de 300 MHz de procesador a 1 GHz como mínimo para mover Windows 8 y Office 2013, sólo para seguir viendo a Excel como un programa de hacer tablas. Tampoco explican por qué Excel 2013 tarda el doble que 2003 en ejecutar una macro que implique gran cantidad de datos. Es cierto que hay que tener sentido de economía del lenguaje y buen criterio de diseño al crear macros, pero aun así no hay razón para la diferencia de tiempo en ejecutar una misma macro en dos versiones diferentes de un mismo programa.

Investigando un poco, la lentitud de Excel 2013 en ejecutar macros tiene que ver con medidas de seguridad y cifrado adicionales a partir de la version 2013 (eso dicen, pero en Excel 2007 la lentitud es igual); y por esas razones de seguridad es que Microsoft no parece querer hacer algo al respecto. La mayoría de las dudas de los usuarios tienen que ver con proteger y cifrar hojas o libros, pero también al ejecutar macros que usen datos de una o varias hojas (como algunos ejercicios que he hecho previamente). Por ejemplo, un ejercicio como de primer curso de programación, podría ser el siguiente: ejecutar una macro que llene 100 filas de números aleatorios de tal modo que en cada fila haya 10 números entre 1 y 100, que estén ordenados de menor a mayor, y que resalte en color las celdas que contengan números primos. ¿Qué explicación hay para que Excel 2013 sobre Windows 8, en un core i7 de ocho núcleos, tarde lo mismo o más que en un Pentium Dual-Core con Windows XP y Excel 2003?

Algunas soluciones -debidas a los usuarios, porque a MS parece no importarle un comino-, tienen que ver con la forma en que Excel devuelve en pantalla el proceso de los datos. Por ejemplo, Excel 2013 mejora un poco la velocidad de una macro si su código se escribe entre las líneas:

Application.Calculation = xlCalculationManual

y

Application.Calculation = -4105

y aun así se siente el uso del procesador que hace el PC. Otras líneas de código entre las cuales se puede escribir la macro son:

Application.ScreenUpdating = False

y

Application.ScreenUpdating = True

Como dije antes, Excel no es un programa destinado sólo para hacer tablas o llevar contabilidad básica. Las macros son la mejor forma que muchos usuarios avanzados pueden manipular grandes cantidades de datos. Por ejemplo, como aficionado al ajedrez, me pregunto cómo espera la federación internacional (FIDE) que un usuario revise una base de datos de 486.619 jugadores (a la fecha, y creciendo) desde un archivo de texto, en un programa que no sea Excel. La versión 2003 no sirve porque se quedó en 65.536 filas. Otras suites ofimáticas, como LibreOffice, pueden abrirla, pero al hacer operaciones básicas sin macros como ordenarla, colapsan el sistema, gracias a sus lagunas de memoria (y con todo respeto, LibreOffice Basic es una engorrosa mala imitación de juguete de VB6).

¿La solución? Para mí no hubo otra que instalar Office 2003 en Windows 8.1 (para algo sirve el asistente de compatibilidad). Excel 2003 funciona rapidísimo ejecutando macros, y el compilador de Visual Basic es casi igual a la última versión (7.1) -otra razón que no justifica mucho el cambio. Para hacer tablas bonitas o revisar bases de chorrocientos mil registros, siempre estará ahí la versión moderna.

Ajedrez: nostalgia de la inteligencia artificial

Una vez un computador me ganó jugando al ajedrez. No fue rival para mí cuando pasamos al kickboxing.

Emo Phillips

Hubo una época en la que el ajedrez era tierra virgen en la investigación de la inteligencia artificial. Sin embargo estaba claro desde el principio (es decir, los tiempos de Alan Turing), que no podía llamarse inteligencia artificial a un proceso de elección determinado por un algoritmo dentro de un campo de opciones limitado (porque aunque las posibilidades matemáticas del ajedrez son enormes, no son infinitas). Debido a las limitaciones del hardware, se creía hasta finales de los ochenta que las máquinas no tenían lo necesario para vencer a los mejores jugadores: intuición, conceptos de estrategia, y sobre todo, inteligencia.

Hoy en día, gracias a la ley de Moore, la superioridad de los programas de ajedrez sobre los seres humanos es aplastante. Sin embargo, esto hace pensar que los juegos abstractos no son necesariamente el mejor modo de probar que las máquinas tienen inteligencia; por más que puedan evaluar una posición (en realidad, millones por segundo) y tomar decisiones ganadoras a largo plazo. O incluso, aprender de los errores (que al igual que en los humanos, es capacidad de memoria, no de inteligencia). Las victorias de Deep Blue y Deep Fritz sobre Kasparov y Kramnik han demostrado que las máquinas tienen la capacidad de ganar a los seres humanos, pero no que sean conscientes de cómo.

Hoy en día se asume que la perfección en ajedrez consiste en jugar como una máquina. Obviando los errores de bulto, si nuestras jugadas no son las primeras que consideraría hacer un programa, decimos que son malas. Y si se parecen demasiado, decimos que quien las hace es un tramposo. Los motores de ajedrez están programados para evaluar una posición con números, aunque eso no es reflejo de su capacidad de entendimiento. Veamos algunos ejemplos evaluados con programas más o menos recientes: Chessmaster 5500 y Fritz 5.32, de 32 bits, y Rybka 4, Stockfish 5, Komodo 5 y Houdini 4, de 64 bits (los últimos tres permiten usar múltiples núcleos).

PCajedrez02
Juegan blancas.

 

Este es un ejemplo clásico: mientras que un jugador medio sabría que es imposible pasar de las tablas, todos los programas dan una evaluación de ±13 a favor de las negras, basados en la ventaja material. Sin embargo, sólo los programas antiguos (CM5500 y Fritz 5.32) siguen cometiendo el error de jugar 1.bxa5??, abriendo la posición y permitiendo a las negras imponer su ventaja material.

PCajedrez03
Juegan blancas.

 

Aunque los programas de mediados de los ochenta buscaban disminuir la desventaja material jugando Axh4??, perdiendo el final contra los peones negros, todos los programas de esta prueba jugaron la correcta Ah6!! logrando las tablas, aunque seguían dando una evaluación ventajosa a las negras. Y posiblemente lo lograron más por fuerza bruta de cálculo que por entender el concepto de tablas de esta posición: un final de alfil y peón de torre es tablas si el peón corona en una casilla no controlada por el alfil.

PCajedrez01
Juegan negras.

Por último, un ejemplo tomado de la Copa Sinquefield 2014, de una partida entre Magnus Carlsen y Levon Aronian. Como los torneos transmitidos por internet van acompañados de los análisis de un motor de ajedrez, muchas veces los espectadores (e incluso los analistas) hacen conclusiones por anticipado. En la prueba, todos los programas daban ventaja a las blancas, aunque ninguno logró ganar con blancas un final de evidentes tablas. Debería ser la prueba de que el criterio de una máquina todavía puede ser vencido por la inteligencia humana, excepto cuando un jugador se empeña en vencer a una potente calculadora en su propio juego.

El test de Turing dice que, si una máquina es capaz de crear algo que un humano sea incapaz de distinguir si es obra de una máquina o de otro ser humano, entonces la máquina que lo crea posee inteligencia artificial. Por ejemplo, el campo más interesante de investigación son los bots conversacionales: programas que simulan una conversación con el usuario. Hasta ahora, ningún bot ha sido capaz de convencer a un humano (experto en semántica, lógica o retórica), de que tiene inteligencia artificial. Tampoco los juegos son prueba de inteligencia. Ni siquiera el póquer: cualquiera puede dejarse engañar por el bluff de un programa de teléfono móvil. Por suerte, aún nos queda el arte, porque la inteligencia dejará de ser exclusiva de los humanos el día en que las máquinas, además de ser conscientes de sí mismas, comprendan el sentido de la creatividad. Podrán tener una potencia de cálculo infinita, pero si Skynet no es la especie dominante, no es porque no pueda vencernos en ajedrez.

Crear GIF animado a partir de varias (muchas) imágenes

Bajo la línea de “si quieres aprender algo, enséñalo”, me pareció importante compartir esta forma de crear imagenes .gif animadas a partir de varias imágenes estáticas, usando el conocido Photoshop. Pero no sólo a partir de pocas imágenes, creando una capa por imagen, como se ve en algunos tutoriales básicos, sino de muchísimas imágenes, como pueden ser las extraídas de un clip de video (para ello uso reproductores como KMPlayer).

De entrada aclaro que uso una versión bastante antigua: la CS4. La opción más común para crear un archivo .gif desde un video en Photoshop es importando los cuadros como capas (Archivo/Importar/Cuadros de video a capas), pero si no se tiene instalado QuickTime, aparece un error. Suponiendo que se quiera crear un .gif con otras imágenes, se puede proceder así:

Una vez que todas las imágenes estén en una misma carpeta, abrimos la primera imagen de la secuencia (Archivo/Abrir), activando la opción Secuencia de imágenes:

001

Aparecerá otra opción para la velocidad de la animación (si se extraen imágenes de un video, lo ideal es usar su misma velocidad):

002

 

Tenemos ahora una línea de tiempo que genera automáticamente la animación que reproduce todas las imágenes de la carpeta. A partir de aquí es posible crear capas adicionales de texto u otras formas, cuya duración se puede coordinar en las barras de tiempo:

003

 

Una vez terminada la edición, para crear el .gif se guarda con la opción Archivo/Guardar para Web y dispositivos, verificando que a la derecha (debajo de Ajuste preestablecido) esté seleccionado el formato GIF, y activar abajo a la derecha la opción Opciones de repetición: Infinito:

004

 

Si se hace un .gif a partir de imágenes extraídas de un video, la calidad suele ser proporcional al tamaño de archivo. A la espera de que el soporte de Twitter sea el inicio de la nueva edad de oro del  formato .gif,  he aquí el resultado final:

cobardes

¿Spam en nombre de Hotmail?

Mas o menos hacia 2001 abrí mi primera cuenta de correo electrónico en Hotmail, que por entonces ya era parte de Microsoft, y era el servicio de e-mail más conocido. Aunque luego surgieron servicios de correo electrónico por todas partes, había convertido esa cuenta en mi buzón principal de correo, y la había mantenido hasta ahora casi sólo por nostalgia. Hasta ahora.

Al ser uno de los servicios más populares de comienzos de siglo, Hotmail fue casi sinónimo de spam desde la masificación de Internet. Hotmail cumple con su función de enviar y recibir correo electrónico, pero también ha tenido detrás un mar de dudas sobre su seguridad. Desde la absurda limitación de las contraseñas a 16 caracteres hasta el envío masivo de spam a través de cuentas de sus usuarios. Y es justamente esto lo que me ha obligado a cerrar definitivamente la cuenta de Hotmail en favor de otras opciones, menos conocidas, mejores en características, y sobre todo, con mejor seguridad.

Recibir spam es muy molesto, pero es casi inevitable para usuarios de Hotmail. Pero aún más molesto es recibir spam enviado supuestamente con mi nombre y cuenta. Lo usual es que eso ocurra a quienes les roban las contraseñas mediante virus, keyloggers o troyanos. Cuando eso pasa lo normal es cambiar la contraseña o proceder con la recuperación de la cuenta. Otra cosa ocurre cuando se envía spam desde una cuenta pero ante el usuario que lo recibe el remitente se identifica con mi nombre y dirección. En teoría el usuario no pierde el control de su cuenta y el spam  no aparece en la carpeta de mensajes enviados; pero parece algo exclusivo de Hotmail permitir a tal punto la suplantación de identidad de sus usuarios de semejante forma.

spam_hotmail

De entrada, mi nick corresponde a un acrónimo de mi nombre (que por ahora me reservo), aunque según veo parece un nombre o apellido común en Brasil o algo así. Por eso es muy común que el spam que me llegue sea phishing de bancos brasileños o cualquier otra cosa en portugués. La primera técnica de un spammer es usar un dominio común y enviar spam a usuarios con nombres comunes: como el mío lo era allí, fue sólo cuestión de tiempo. Como se ve en la imagen, Microsoft admite que la suplantación de identidad de un remitente es posible con Hotmail, al decir que un usuario me envía spam… en nombre de mi propia cuenta de Hotmail. Desconozco si esto pasa con otros servicios, pero creería que si Google, por ejemplo, tiene el mejor motor de indexación web, también sabrá como manejar el asunto del spam en Gmail. Aunque el spam lo traiga incorporado.

Hasta ahora, no tengo noticias de que mis contactos hayan recibido spam en mi nombre. Tampoco que haya perdido el control de esa cuenta (para evitar que sea cosa de virus, había cambiado la contraseña dos veces bajo Linux Mint y Debian). Pero lo cierto es que me aburrí de réplicas de relojes y todo lo demás, pero sobre todo por la poca seguridad que ofrece Hotmail en todo este asunto. Por más que se les reportan los correos como de “suplantación de identidad”, no les parece sospechoso que supuestamente me envíe correos a mi cuenta que van directamente a la bandeja de spam. Desconozco lo que pasa, pero me aburrí de Hotmail, así como en su momento me harté de Internet Explorer (es curioso que la mayoría de usuarios de versiones desatendidas de Windows usen Internet Explorer “sin complementos”, como los de los antivirus que detectan automáticamente los sitios de phishing, o que sean incompatibles con ese “navegador”). Lo peor es que tras el cierre de Hotmail para usuarios nuevos y la llegada de Outlook, ahora Microsoft no tiene un servicio de correo con una seguridad tan pobre, sino dos.

Batallando con el ‘responsive design’ (y la porquería de Internet Explorer)

Siguiendo con la idea de crear un sitio personal con el solo propósito de aprender y experimentar, y con el escaso tiempo libre que dejan las obligaciones cotidianas, ya he subido una maqueta de prueba. Bastante trabajo teniendo en cuenta que hubiera podido elegir una plantilla lista para descargar, o usar los creadores automáticos de sitios del proveedor de hosting (muy recomendable en mi experiencia, por cierto: a diferencia de otros servicios de hosting gratuito sin publicidad, Hostinger tiene versiones de PHP y MySQL actualizadas para instalar la última versión de WordPress y MediaWiki entre otros servicios).

Sin embargo decidí aprender por mi cuenta la maquetación básica. Aunque todavía no está terminada la estructura del sitio (si no está claro aún el objetivo no se puede esperar otra cosa), la maqueta cumple con su propósito. No es fácil pasar del paradigma del WYSIWYG y de la maquetación en tablas, a trabajar sólo con código y con los nuevos estándares: HTML5 y CSS3, pero el resultado es bueno. Falta agregar contenido y el trabajo gráfico está aún por hacer, pero la maqueta responde bien al criterio del ‘responsive design’ ( o “diseño sensible”, porque a los puristas del idioma la expresión “diseño responsivo” seguramente les molestará).

Haciendo pruebas, la maqueta se adapta bien a distintos tipos de pantalla, y la primera prueba en un smartphone con pantalla de 3″ fue buena: los componentes de la página se adaptan a los 200 px de ancho y la galería funciona bien, aunque dependiendo de la conexión tarda un poco en cargar. Fue muy útil lo que se puede encontrar en tutoriales y videos sobre Media Query para esto, a pesar de ciertos caprichos como tener dos imágenes en el head, o ciertos problemas con los menús desplegables. Sin embargo, algo verdaderamente frustrante fue ver cómo el sitio funcionaba perfectamente hasta que se abría con Internet Explorer.

No importan los hacks o plugins: la galería no se despliega correctamente, y si se hace funcionar, se despedaza el resto de la maqueta. Es la historia de siempre y la pesadilla de todo diseñador web: diseñar un sitio web decente, que cumpla con los estándares, que se vea bien en cualquier navegador… y que funcione también en esa abominación. Tampoco importa cuanto tiempo haya pasado: el odio hacia Microsoft y su Internet Explorer sigue vigente. Windows es en muchos casos un mal necesario (podría decirse mucho sobre la presión de Microsoft a desarrolladores y fabricantes, o del estado de las alternativas de software libre, pero es tema de otra discusión); aunque en cuanto a los navegadores ese no es el caso.

Si la web tiene estándares, los diseñadores se basan en ellos y los navegadores los cumplen perfectamente, entonces la actitud de Microsoft es incomprensible. Porque sus pretensiones de monopolizar la web a base de corromper los estándares son absurdas; más en estos tiempos de la “muerte del PC”, de la computación en la nube, de las aplicaciones web y de la conectividad móvil en la que justamente Microsoft, a pesar de algunos avances, sólo ha dado palos de ciego frente a Android o iOS. Es ridícula su actitud de hacer elegir a usuarios o desarrolladores entre una web estándar o una compatible con un navegador inferior a todos en cualquier aspecto, que sólo se sostiene por venir preinstalado con Windows; un sistema a su vez impuesto por Microsoft a usuarios, desarrolladores y fabricantes. Y porque la gente, animales de costumbres, lo usan sólo por inercia.

El mundo fue testigo de la guerra de los navegadores y de las prácticas de Microsoft rayanas en la conducta mafiosa. Pero ahora el mundo no es como lo que Microsoft pretendía cuando “ganó” la guerra contra Netscape en 1998: un mundo sin competencia -y por tanto, sin innovación-, en el que el infame Internet Explorer 6 impuso sus estándares de facto y no cambió hasta el lanzamiento de IE7… seis años después. Seis. Paradójicamente Microsoft reconoce hoy a IE6 como su peor contribución al atraso de Internet con campañas para dejar de usarlo, y la prueba de lo malo de su navegador seguramente serán las campañas para de dejar de usar IE7, IE8, IE9… Como ya no uso esa bazofia, no sé si Internet Explorer se actualiza solo como cualquier navegador realmente moderno, pero francamente no sería raro.

Pero Microsoft no es el único culpable: tanto los usuarios que usan por inercia lo que les viene instalado, como los gobiernos que subordinan el interés público al de una empresa diseñando páginas de entidades públicas sólo para IE, tienen su cuota de responsabilidad. Muchos dirán que es cuestión de conciencia y divulgación. Admiro la paciencia y el conocimiento de los diseñadores para hacer compatibles sus diseños con ese vómito hecho software; pero yo no voy a perder tiempo con eso, así que adopté una medida temporal. SImplemente al cargar el sitio, si la página detecta que el navegador es Internet Explorer, redirige al usuario a otra página donde explico más o menos las mismas razones, e invito al usuario a descargar otro navegador. Iba a diseñar esa página como si estuviese hecha en Frontpage 98 o algo así, para demostrar el atraso que supone IE para la web, pero prefiero dedicar mi tiempo a terminar el sitio. Aunque no lo vea nadie por no tener interés. O el 31% de nadie por usar lo que unos ineptos con afán de dominar el mundo quieren que usemos.