El llamado “efecto mariposa” es una teoría que surge cuando, en los años sesenta, el meteorólogo Edward Lorenz intentaba buscar un modelo matemático que le permitiese explicar y predecir el comportamiento de la atmósfera. Efectivamente lo encontró, y dio lugar a un conjunto relativamente simple de ecuaciones, el llamado Modelo de Lorenz, pero que tenía un problema fundamental empíricamente comprobable: pequeñísimas variaciones en los datos de origen, del orden de las diezmilésimas, eran susceptibles de causar enormes cambios en los resultados finales. Para ilustrarlo, Lorenz vino a decir que una predicción absolutamente rigurosa y matemática realizada por un meteorólogo para un lugar determinado podía resultar diametralmente errónea simplemente debido al efecto del batir de alas de una mariposa en el otro lado del planeta. El efecto mariposa define, en realidad, sistemas complejos y de alta inestabilidad, en el que las variables pueden cambiar de manera caótica y errática, haciendo difíciles o imposibles las predicciones.
El ecosistema Internet de hoy en día responde a parámetros de ese tipo. Las variables en juego no son tantas: si en el clima hablamos fundamentalmente de velocidad y temperatura del aire, en Internet hablamos de visitas, vínculos y cuestiones afines. Pero el posible impacto de una variación infinitesimal en la medición de las variables de origen puede tener un impacto brutal en los resultados finales, y lo que es peor, sin demasiadas posibilidades de entender a posteriori que fue lo que funcionó o falló, sin ser capaz de convertir el suceso en una experiencia evitable o repetible. Para llevar el tema a un nivel de complejidad aún mayor, los aleteos de mariposa son, en muchas ocasiones, verdaderas mariposas que efectivamente aletean. Pero en otros casos, y curiosamente en muchos, ni existe mariposa, ni mucho menos aleteos. Son, simplemente, lo que en ciencia suele llamarse un “artefacto”, una creación ficticia propia de un error en los instrumentos de medida o de observación. De hecho, muy pocas de las variables que se utilizan para medir cosas en Internet hoy en día están exentas de errores. Y no hablamos de que se nos escapen pequeños aleteos de mariposa, sino de cosas mucho más graves. Hablamos de que se nos escapen tormentas del siete, simplemente porque en ese momento no estábamos mirando.
Criterios que todo el mundo aparentemente da por buenos, como el sacrosanto PageRank de Google, la cuenta de vínculos entrantes a una página web que lleva a cabo Technorati o los rankings de popularidad de Alexa son medidas completamente burdas, groseras, carentes de inteligencia, que responden únicamente al deseo de intentar reducir la incertidumbre, pero que lo hacen, en general, bastante mal. ¿Mejor que nada? Por supuesto, pero igual de fiable que una escopeta de feria. En realidad son cosas de las que uno se da cuenta únicamente cuando pulula por Internet una temporada, y que además, cuando las dice, los demás tienden a abalanzarse sobre él acusándole de todo tipo de conspiraciones diabólicas o de ser un resentido porque las clasificaciones no le tratan como merece. En mi caso particular, por ejemplo, teniendo en cuenta que me muevo con la objetividad de un académico que no necesita un número mayor o menor de visitas para nada, que no vive ni obtiene beneficio económico directo de su página, las constataciones de hechos evidentes ya se han convertido en centenar. Por ejemplo: ¿les resulta fiable un algoritmo que tiene en cuenta los enlaces que se dirigen a una página, sin tener en cuenta, ¡Oh, pequeño detalle!, que esa página puede tener dos, o tres o más direcciones asociadas? La página es exactamente la misma, no hay dos ni tres páginas: simplemente posee diversos nombres. Pero por supuesto, algunos enlaces irán hacia uno de los nombres, y otros hacia el otro, de manera que la página se encontrará penalizada en sus índices de popularidad simplemente porque sus vínculos entrantes estarán divididos en dos, o en tres páginas hipotéticas que son, en realidad, la misma. Un error burdo, ridículo, impensable. Pues llevo ya varios años haciendo ese experimento, y ni Google ni Technorati me han podido ofrecer ningún atisbo de solución. Simplemente, cierran los ojos y callan. Por no hablar, por ejemplo, del enorme efecto que sobre un motor de búsqueda tiene el hecho de que una página esté escrita de determinada manera, según unos ciertos estándares dictados, parece ser, por la buena práctica. En otro de mis experimentos (mi página está creada por mí mismo, y yo disto mucho de ser un programador experto), puede verse como una página alcanza importantes penalizaciones por el hecho de no utilizar hojas de estilo, usar tablas o tener un código mejor o peor escrito. Desde el punto de vista informático, “por ser fea”, sin que ello tenga además que ver con la estética de la página como tal. Pero, digo yo… ¿no estábamos hablando de relevancia del contenido? Entonces, ¿por qué se atreve un buscador a penalizar a una página “por fea”, independientemente de que su contenido pueda ser el mejor del mundo o el más adecuado a la búsqueda que alguien ha introducido?