Red de conocimiento informático - Aprendizaje de código fuente - Cómo ajustar StarCraft 1 al chino

Cómo ajustar StarCraft 1 al chino

Descarga un parche chino para ajustarlo al chino.

Como un juego de estrategia en tiempo real extremadamente clásico, "StarCraft II" desarrollado por Blizzard es también uno de los entornos de entrenamiento favoritos para el aprendizaje por refuerzo. Especialmente después de la batalla entre AlphaStar desarrollado por DeepMind y jugadores profesionales humanos en 2019, desencadenó una ola de acaloradas discusiones.

Recientemente, un profesor de la Universidad de Pekín publicó un artículo de investigación preimpreso que detalla un sistema de aprendizaje por refuerzo basado en el entorno de entrenamiento "StarCraft II". Los autores analizan el desempeño potencial del agente integrando el control y la teoría diferencial de juegos en un entorno de aprendizaje por refuerzo específico.

Además, el autor ha ampliado el minijuego actual de StarCraft para desarrollar un entorno Adversarial Agent Challenge (SAAC). Las principales contribuciones se dan en dos aspectos: a través de la integración de la cibernética y la teoría de juegos, se mejora la comprensión de las capacidades de aprendizaje por refuerzo del juego de persecución y se proporciona un entorno de aprendizaje por refuerzo del agente adversario para el juego de persecución.

El entorno poco a poco se vuelve más complejo y práctico. Antecedentes Este artículo desarrolla un entorno de aprendizaje por refuerzo para el juego de persecución, un problema clásico pero desafiante con importantes aplicaciones en el sector aeroespacial, como la interceptación cooperativa simultánea, la interceptación exoatmosférica y las operaciones de búsqueda y rescate. Este problema ha sido ampliamente estudiado en los marcos analíticos de la teoría diferencial de juegos y la teoría del control óptimo, respectivamente.

Sin embargo, la mayoría de las investigaciones actuales básicamente solo se centran en la estrategia de inteligencia artificial (IA) de un grupo del juego (generalmente el grupo de persecución), mientras que otros grupos del juego no se mueven o no pueden ser controlados directamente por la inteligencia artificial. . control, que en realidad reduce el nivel de conflicto que puede ocurrir en el juego. Para resolver este problema, los autores desarrollaron un entorno de aprendizaje por refuerzo.

Al ampliar el famoso entorno del juego StarCraft II, el entorno permite que un solo agente controle directamente las funciones de persecución y vuelo.