Computer Science crisis

Ya hemos hablado en otras ocasiones sobre la crisis del software. Esta vez he encontrado una crítica feroz a la situación actual de la industria del software y la ciencia de la informática en general (Computer science). En este artículo se comenta que estamos en la época de la historia de la informática (desde los años 70) cuando menos sistemas operativos y lenguajes de programación se están creando, estamos estancados.

Comienza mostrando una comparativa entre la evolución del software en la década pasada y la evolución del hardware. Muestra el software utilizado por sistemas Linux.

Año 1990 Año 2000
CPU 33Mhz CPU 600Mhz
32 Mb RAM 512Mb RAM
10 Mbps Ethernet 100Mbps Ethernet
Unix Unix
Emacs Emacs
X Windows X Windows
TCP-IP TCP-IP y Netscape
C C
C++ C++ y Java

Vemos el impresionante avance del hardware en 10 años y en cambio seguimos utilizando los mismos sistemas operativos, los mismos protocolos y los mismos lenguajes de programación. Básicamente la estructura de un sistema Linux es el mismo y la forma de programar y trabajar con él también después de tantos años. Los investigadores en el año 90 trabajaban con C/C++, Emacs/Vi, Tex y siguen utilizando las mismas herramientas hoy en día. En cambio dice que Microsoft es sinónimo de innovación, y la verdad es que si comparamos las versiones de Word y de Windows del año 1990 con las versiones del 2000 es algo realmente impresionante.

Hace una crítica muy dura de Linux. Diciendo de este último que es una simple evolución de un sistema operativo de los años 70 que está matando la investigación en nuevos sistemas operativos en las universidades y empresas, está destruyendo la imaginación de los programadores e investigadores que emulan todos la misma arquitectura de Unix sin crear nada nuevo. Además la forma de trabajar y programar en linux es arcaica, lenta y se podría mejorar mucho si no nos asentaramos en unas herramientas que se usan simplemente como convención y nos dedicaramos a crear nuevas ideas.

También comenta algo que estoy viendo yo mismo en la universidad. Se hacen investigaciones muy cortas para dar unos resultados mínimos que sirvan para dar dinero a los departamentos y prestigio a sus profesores a base de escribir publicaciones en vez de software útil.

Para competir con Windows hay que innovar, crear cosas nuevas, realizar proyectos a largo plazo sin prisas por ganar dinero, crear nuevos lenguajes de programación que abran nuevas vías de creatividad.

6 respuestas a «Computer Science crisis»

  1. Todas esas ventajas de Hardware las dedicamos a hacer las cosas mas bonitas (UI) que es el precio que paga la informática por la fama, en lugar de, como sugería el rastas de Sun, dedicarnos a que se programe (y el ordenador piense) de otro modo muy diferente … OOP esta bién, como lo estaba la programación linea, pero … nuevos objetivos requerirán de nuevos métodos … como el reconocimiento de patrones que mencionaba el citado rastas.

  2. Pues eso, mucho Pentium Hyperthreading a 4 Ghz para luego usar el Word y enviar E-mails, cuanta tecnología desaprovechada 🙂 . Deberíamos comenzar a usar esa potencia para que el ordenador haga más cosas por nosotros sin que nosotros tengamos que interactuar con él.

  3. Me he leido el artículo por encima, y me da la impresión de que este tío es un troll de los buenos, de esos que se convierten en piedra cuando les da el sol.

    Puedo entender que dijera eso en el año 2000 (aunque así y todo, sigue siendo un troll) pero ahora ya claramente no es cierto. Este tema me recuerda a un post de Havoc Pennington, seguramente el que desató el flame de estos últimos días (Java vs. .NET). En él decía que ya habían pasado los días de implementación, que ya llegaban los días de innovación. Y por qué decía esto ??

    Pues lo decía porque durante los primeros dias / años de Linux, los desarrolladores se concentraban en implementar a saco, ya que no había NADA. Ponte en el lugar del desarrollador que va a implementar un sistema de ficheros, y qué implementas ?? Algo que ya sabes que existe, y que funciona perfectamente, o vas a ponerte a diseñar un sistema de journalling ?? Por supuesto que no, uno se atiene a las cosas que ya sabe que funcionan, y una vez que se tenga eso funcionando, pasaremos a otras cosas.

    Microsoft en 1990 ya tenía una buena base para innovar, Linux acababa de surgir, desde cero. From scratch. Es normal que no haya innovación en esa primera fase. Ahora en cambio, sí la está habiendo. Guías de interfaces de usuario, aplicaciones y sistemas de ficheros orientados a meta-datos, etc.

    Por otro lado, esa tabla que has copiado ahí tal cual, es un disparate. Sí, se sigue llamando X Window, se sigue llamando Emacs, pero no tiene nada que ver lo que había en 1990 con lo que había en 2000. Que narices… el Word de 1990 también se llamaba Word. Y el Windows también. Qué es lo que quiere decir este troll con esa tabla ?? Y por cierto, ahí en esa tabla le faltan el montón de lenguajes y sistemas operativos que se han creado, pero que han fracasado y existen prácticamente en el olvido, razón por la cual la peña no se lanza en masa a crear más. Por supuesto, también le faltan otros muchos que sí que son conocidos, como python, ruby, pyke, OCAML, y yo que se cuántos más…

    En parte, tiene razón en una cosa, y es que la compatibilidad no nos deja innovar, pero la adopción de una innovación por parte de los usuarios es algo que tiene que ocurrir de forma gradual. Spatial Nautilus es una innovación, y el 30% de los usuarios de Nautilus se queja y se queja. Las cosas funcionan así, qué le vamos a hacer.

  4. Creo que la no evolucion de los sistemas informaticos tiene que ver con el desfase que hay entre el hardware y las tecnicas de organizacion de datos

    La usabilidad en la informatica es nula (auque muchos crean que ya esta todo resuleto) la prueba es que no hay ni un solo sistema informatico que sea capaz de resistir la mejor prueba de usabilidad que existe: las manos de un niño de 8 años

    Mi experiencia me dice que hasta que un tema no se conoce con un cierto grado de globalidad no es posible superarlo y, en mi opinion insisto, eso es lo que le pasa a los sistemas de informacion

    De todos modos ya se estan haciendo cosas interesantes (como los sistemas de gestion del conocimiento y gestion documental, etc)

    Yo veo un sistema con interfaces tipo minority report ya que la programacion orientada a objetos esta empezando a ser algo realista y en ese interface lo unico que se hace es manejar esos objetos

    Buff! se me pone la carne de gallina (probablemente soy un friki, lo se, juas) solo de pensarlo

    Saludos

  5. Hay varios problemas y uno es que se le vende a la gente ordenadores como si fueran elecrtrodomésticos y lo cierto es que, aún, un ordenador es una máquina muy compleja y los sistemas operativos también. Para mandar emails y navegar por inernet y escribir en Word (o algún programa mejor, cualquiera), ya vale…… hasta que te mandan un adjunto sólo entendible por outlook, o visitas una web que sólo funciona si tienes activex, o con el javascript basura de microsoft, o te tienes que pelear con tipografías, etc, etc, etc. Cada uso que se le puede dar a un ordenador es todo un mundo de formatos, opciones y posibilidades. Realmente la única manera de que TODO funcione como UNO (?) es con un monopolio. M$ lo intenta una y otra vez, y lo ha conseguido con la gente que cree que los ordenadores e internet son inventos del vil bill gates. Pero hay que reconocer que, cuando todo funciona al unísono, funciona bien, porque está todo previsto. Y que conste que soy maquero, que a M$ ni agua XDD

    Los organismos que intentan poner algo de orden en la informática (como W3C en la Web) no lo consiguen porque les falta la publicidad y la cultura de la gente. Más que cultura, conocimiento. La informática todavía es compleja. Tal vez la opción sea usar la tecnología para ofrecer productos «limitados». Por ejemplo, una videoconsola usa tecnología tan compleja como un ordenador, pero el usuario no es consciente porque no se le da acceso a esa complejidad, todo el entorno hardware y software de la máquina está controlado y delimitado a lo que el fabricante ha decidido. Para los amantes del open source eso no es bueno, pero porque sois un poco frikis ;-), pero para una persona de a pie, que sólo quiere jugar, no saber si el kernel del SO de la máquina tiene el último patch de no-se-que.tar.bz.. Para la persona de a pie, digo, que una máquina se limite a hacer 3 o 4 cosas, y a hacerlas bien, es lo mejor. Fijáos en los teléfonos móviles, con tantas pijadas que ahora un móvil, o handset, es tan complicado que puede colgarse (yo he visto un Nokia de los modernos con un juego literalmente colgado) y ya puede tener virus… Estupendo… la complejidad de un ordenador en tu bolsillo.

Los comentarios están cerrados.