Empresas Premium
La aparición del primer simulador de procesos químicos (Flowtran) en el año 1962 generó una sucesión de acontecimientos que condujo al desarrollo de los actuales simuladores comerciales. Considerados una herramienta indispensable para el diseño en los últimos años, los simuladores han permitido afrontar y resolver problemas que de otro modo sólo hubieran sido detectados tras la puesta en funcionamiento de las unidades de procesos. Sin embargo, ¿qué cambios se han introducido desde que se sentaron las bases de la simulación hace más de 60 años? ¿Evoluciona el mercado de la simulación a la misma velocidad que los retos que plantea la industria? ¿Se puede seguir una estrategia que permita afrontar con mejor preparación los retos del futuro? ¿Podría ser el uso de interfases abiertas el camino a seguir?
La simulación de procesos en la industria química es una actividad actualmente consolidada. El origen de esta tecnología lo tenemos que buscar en los primeros ordenadores con tarjetas perforadas. La programación de la primera columna simulada completamente en un ordenador tuvo lugar en los años 50, si bien las bases de la simulación no se consolidarían de forma sólida hasta 12 años más tarde con el nacimiento del programa de simulación Flowtran, desarrollado por Monsanto en 1962 [1]. ¿Qué ha sucedido en los últimos 50 años? Desde el punto de vista del desarrollo de ordenadores, potencia de cálculo, algoritmos termodinámicos y operaciones unitarias se han producido grandes avances, pero sin ningún paradigma matemático que haya significado un salto cualitativo importante.
Los métodos, las máquinas y el usuario. Un largo camino desde los primeros programas
Lo que entendemos por simulación de procesos es la imitación de un proceso mediante el uso de algoritmos de cálculo que son capaces no sólo de explicar los resultados físico-químicos de un proceso, sino también de predecir su comportamiento cuando se dan otras condiciones operativas. Por lo tanto, estamos ante un proceso de imitación y de predicción, o sea, de un proceso de modelización que ha de ser validado (calibración) y de un proceso de proyección. En este sentido, la ejecución modular-secuencial ha sido probablemente el método de cálculo que más éxito y popularidad ha tenido en el auge de la simulación. La estructuración de la solución de los balances de materia y energía en un proceso modular ha permitido construir el proceso en su conjunto a base de módulos de cálculo que se ejecutan de manera independiente y secuencial, pero que, conjuntamente, representan el comportamiento global de los procesos. A esta manera de abordar los problemas de simulación se suma el éxito extraordinario de los métodos termodinámicos desarrollados; conjuntamente, han constituido los pilares de las herramientas de simulación tal y como las conocemos hoy en día. No obstante, ¿es eso todo: una buena termodinámica y muchos algoritmos de resolución de operaciones unitarias?
Categóricamente, no. Actualmente no podemos concebir una buena herramienta de simulación que no incluya una base de datos termodinámicos con componentes del petróleo, no permita la incorporación de componentes definidos por el usuario o la posibilidad de desarrollar operaciones unitarias de usuario, no incorpore métodos de resolución de diagramas de flujo y, por último y no menos importante, no muestre una adecuada interfaz gráfica de usuario.
¿Quién no recuerda la interfaz de usuario anterior a la década de los 90, el keyword input file, la ejecución en batch, o la semana de espera para conocer los resultados de la simulación de una torre de destilación? El mismo modelo que hoy emplearía horas en alcanzar la solución.
Desde entonces, se ha introducido todo un arsenal de herramientas que mejoran la productividad: entornos gráficos, código de colores, ayuda en el diagnóstico de la simulación, etc.; herramientas que usan toda la potencia visual de los entornos Windows de desarrollo.