Algoritmos e problemas personalizados no EvoX
Neste capítulo, vamos apresentar como implementar os seus próprios algoritmos e problemas no EvoX.
Estrutura dos algoritmos e problemas
Na maioria das bibliotecas de EC tradicionais, os algoritmos costumam chamar a função objetivo internamente, o que resulta na seguinte estrutura:
Algorithm
|
+--Problem
Mas no EvoX, temos uma estrutura plana:
Algorithm.step -- Problem.evaluate
Esta estrutura torna tanto os algoritmos como os problemas mais universais: um algoritmo pode otimizar diferentes problemas, enquanto um problema também pode ser adequado para muitos algoritmos.
Classe Algorithm
A classe Algorithm é herdada de ModuleBase.
No total, existem 5 métodos (2 métodos são opcionais) que precisamos de implementar:
| Método | Assinatura | Utilização |
|---|---|---|
__init__ | (self, ...) | Inicializar a instância do algoritmo, por exemplo, o tamanho da população (mantém-se constante durante a iteração), hiperparâmetros (só podem ser definidos pelo wrapper de problema HPO ou inicializados aqui) e/ou tensores mutáveis (podem ser modificados dinamicamente). |
step | (self) | Executar um passo normal de iteração de otimização do algoritmo. |
init_step (opcional) | (self) | Executar o primeiro passo da otimização do algoritmo. Se este método não for sobrescrito, o método step será invocado em vez disso. |
Nota: A inicialização estática ainda pode ser escrita no
__init__, enquanto a inicialização de submódulo(s) mutável(eis) não pode. Portanto, são possíveis múltiplas chamadas desetuppara inicializações repetidas se o métodosetupsobrescrito invocar primeiro osetup()deModuleBase.Se esse método
setupemModuleBasenão for adequado para o seu algoritmo, pode sobrescrever o métodosetupquando criar a sua própria classe de algoritmo.
Classe Problem
A classe Problem também é herdada de ModuleBase.
No entanto, a classe Problem é bastante simples. Além do método __init__, o único método necessário é o método evaluate.
| Método | Assinatura | Utilização |
|---|---|---|
__init__ | (self, ...) | Inicializar as definições do problema. |
evaluate | (self, pop: torch.Tensor) -> torch.Tensor | Avaliar o fitness da população fornecida. |
No entanto, o tipo do argumento pop em evaluate pode ser alterado para outros tipos compatíveis com JIT no método sobrescrito.
Exemplo
Aqui apresentamos um exemplo de implementação de um algoritmo PSO que resolve o problema Sphere.
Pseudocódigo do exemplo
Aqui está um pseudocódigo:
Definir hiperparâmetros
Gerar a população inicial
Fazer
Calcular fitness
Atualizar o melhor fitness local e o melhor fitness global
Atualizar a velocidade
Atualizar a população
Até ao critério de paragem
E aqui está a que corresponde cada parte do algoritmo e do problema no EvoX.
Definir hiperparâmetros # Algorithm.__init__
Gerar a população inicial # Algorithm.setup
Fazer
# Problem.evaluate (não faz parte do algoritmo)
Calcular fitness
# Algorithm.step
Atualizar o melhor fitness local e o melhor fitness global
Atualizar a velocidade
Atualizar a população
Até ao critério de paragem
Exemplo de algoritmo: algoritmo PSO
A Otimização por Enxame de Partículas (PSO - Particle Swarm Optimization) é um algoritmo meta-heurístico baseado em população, inspirado no comportamento social de aves e peixes. É amplamente utilizado para resolver problemas de otimização contínuos e discretos.
Aqui está um exemplo de implementação do algoritmo PSO no EvoX:
import torch
from typing import List
from evox.utils import clamp
from evox.core import Parameter, Mutable, Algorithm
class PSO(Algorithm):
#Initialize the PSO algorithm with the given parameters.
def __init__(
self,
pop_size: int,
lb: torch.Tensor,
ub: torch.Tensor,
w: float = 0.6,
phi_p: float = 2.5,
phi_g: float = 0.8,
device: torch.device | None = None,
):
super().__init__()
assert lb.shape == ub.shape and lb.ndim == 1 and ub.ndim == 1 and lb.dtype == ub.dtype
self.pop_size = pop_size
self.dim = lb.shape[0]
# Here, Parameter is used to indicate that these values are hyper-parameters
# so that they can be correctly traced and vector-mapped
self.w = Parameter(w, device=device)
self.phi_p = Parameter(phi_p, device=device)
self.phi_g = Parameter(phi_g, device=device)
lb = lb[None, :].to(device=device)
ub = ub[None, :].to(device=device)
length = ub - lb
population = torch.rand(self.pop_size, self.dim, device=device)
population = length * population + lb
velocity = torch.rand(self.pop_size, self.dim, device=device)
velocity = 2 * length * velocity - length
self.lb = lb
self.ub = ub
# Mutable parameters
self.population = Mutable(population)
self.velocity = Mutable(velocity)
self.local_best_location = Mutable(population)
self.local_best_fitness = Mutable(torch.empty(self.pop_size, device=device).fill_(torch.inf))
self.global_best_location = Mutable(population[0])
self.global_best_fitness = Mutable(torch.tensor(torch.inf, device=device))
def step(self):
# Compute fitness
fitness = self.evaluate(self.population)
# Update the local best fitness and the global best fitness
compare = self.local_best_fitness - fitness
self.local_best_location = torch.where(
compare[:, None] > 0, self.population, self.local_best_location
)
self.local_best_fitness = self.local_best_fitness - torch.relu(compare)
self.global_best_location, self.global_best_fitness = self._min_by(
[self.global_best_location.unsqueeze(0), self.population],
[self.global_best_fitness.unsqueeze(0), fitness],
)
# Update the velocity
rg = torch.rand(self.pop_size, self.dim, dtype=fitness.dtype, device=fitness.device)
rp = torch.rand(self.pop_size, self.dim, dtype=fitness.dtype, device=fitness.device)
velocity = (
self.w * self.velocity
+ self.phi_p * rp * (self.local_best_location - self.population)
+ self.phi_g * rg * (self.global_best_location - self.population)
)
# Update the population
population = self.population + velocity
self.population = clamp(population, self.lb, self.ub)
self.velocity = clamp(velocity, self.lb, self.ub)
def _min_by(self, values: List[torch.Tensor], keys: List[torch.Tensor]):
# Find the value with the minimum key
values = torch.cat(values, dim=0)
keys = torch.cat(keys, dim=0)
min_index = torch.argmin(keys)
return values[min_index], keys[min_index]
Exemplo de problema: problema Sphere
O problema Sphere é um problema de otimização de referência (benchmark) simples, mas fundamental, utilizado para testar algoritmos de otimização.
A função Sphere é definida como:
$$ \min f(x)= \sum_{i=1}^{n} x_{i}^{2} $$ Aqui está um exemplo de implementação do problema Sphere no EvoX:
import torch
from evox.core import Problem
class Sphere(Problem):
def __init__(self):
super().__init__()
def evaluate(self, pop: torch.Tensor):
return (pop**2).sum(-1)
Agora, pode iniciar um workflow e executá-lo.