Рассматривается задача выпуклой стохастической оптимизации и метод зеркального спуска (МЗС) как в «классической», так и в «адаптивной» постановке, когда последовательность обобщенной температуры не определена априори и настраивается в процессе наблюдений градиента и итеративного оценивания оптимальной точки. Доказана соответствующая адаптивная верхняя граница ошибки (относительно оптимизируемой функции) в предположении известного ограничения нормы градиента с вероятностью 1. Это является своеобразной платой за адаптивность метода по сравнению с более слабым ограничением в среднем в неадаптивной постановке.