Анализируются вопросы моделирования вычислительных распределенных систем. Для моделирования используется метод network calculus базирующийся на мини (макси) плюс алгебре. Основное внимание уделено вычислительным системам с переменным потоком данных между компонентами. Предложено использовать обобщенное преобразование Лежандра для расчета конверта выходного потока системы.