强化学习工具箱

强化学习工具箱

Entwurf und Training von Strategien mithillife von Reinforcement Learning

现在beginnen:

Reinforcement-Learning-Agenten

Erstellen und konfigurieren Sie强化学习代理zum Trainieren von Richtlinien在MATLAB和Simulink。强化学习算法。

Reinforcement-Learning-Algorithmen

深度q -网络(DQN),深度确定性策略梯度(DDPG),近端策略优化(PPO)和积分算法。我的朋友,我的朋友,我的朋友,我的朋友,我的朋友,我的朋友。

Verschiedene Trainingsalgorithmen, einschließlich SARSA, SAC, DDPG和andere。

在der Reinforcement Learning Toolbox verfügbare Trainingsalgorithmen。

强化学习设计器应用程序

训练者和模拟者相互作用强化学习剂。出口培训代理在MATLAB zur weiteren Verwendung和Bereitstellung。

Darstellung von richtlinen和Wertefunktionen mithillife tiefer neuraler Netze

Definieren Sie tiefe neurale Netzrichtlinien programatisch für komplexe Systeme mit großen zustanding -/Handlungsräumen mithillife von Schichten ausder深度学习工具箱奥德interaktiv MIT他们深度网络设计器.备选können Sie die Standardnetzarchitektur verwenden, die die Toolbox vorschlägt。首字母“Sie die Richtlinie mithillife von Imitation Learning, um das Training zu beschleunigen”。Importieren und exportieren Sie onnx - model, um die Kompatibilität mit anderen Deep Learning-Frameworks zu gewährleisten。

Simulink中的单智能体与多智能体强化学习

Erstellen和trainieren Sie Reinforcement-Learning-Agenten in Simulink mit RL-Agentenblock。Trainieren Sie mehrere Agenten gleichzeeitig(多智能体强化学习)在Simulink mithillife mehrerer Instanzen des RL-Agentenblocks。

simulink - model mit einem RL-Agentenblock。

Der Reinforcement-Learning-Agentenblock für Simulink。

Umgebungsmodellierung

Erstellen Sie MATLAB- und Simulink-Umgebungsmodelle。系统动力学和碑文系统动力学和碑文系统für为我们的代理人提供培训。

Simulink- und Simscape-Umgebungen

Verwenden Sie Simulink- und Simscape™- model für die Darstellung einer Umgebung。手包和手包在模型的内部。

Simulink-Umgebungsmodell für einen zweibeinigen机器人。

Simulink-Umgebungsmodell für einen zweibeinigen机器人。

MATLAB-Umgebungen

Verwenden Sie MATLAB-Funktionen und -Klassen für die Modellierung einer Umgebung。Bestimmen Sie Beobachtungs-, handlung - und Belohnungsvariablen inhalb der MATLAB-Datei。

MATLAB-Umgebung für eine rakette mit drei Freiheitsgraden。

MATLAB-Umgebung für eine rakette mit drei Freiheitsgraden。

Beschleunigung des trains

Beschleunigen Sie das训练mithillife von GPU-,云与脊椎的再生资源。

框图meherer Worker zur Beschleunigung des并行训练Ausführung meherer模拟。

并行计算训练。

GPU-Beschleunigung

Beschleunigen Sie das Training and die Inferenz tiefer neuraler Netze mit leistungsstarken NVIDIA®gpu。Verwenden Sie MATLAB mit der并行计算工具箱und den meisten CUDA-fähigen nvidia - gpu mit einerRechenfähigkeit ab 3.0版本

GPU-Hardware。

Beschleunigung des mithillife培训gpu。

代码generierung和-bereitstellung

steellen Sie trainierte Richtlinien auf Embedded Geräten bereit oder integrieren Sie Sie in einer Vielzahl von production ktionssystemen。

Codegenerierung

Verwenden Sie denMATLAB编码器™, um optimierten CUDA代码aus MATLAB程序代码zu generieren, der trainierte Richtlinien darstellt。Verwenden您MATLAB编码器™C/ c++ Code zur Bereitstellung von Richtlinien zu generieren。

配置图形处理器编码器

Generieren von CUDA代码mit GPU编码器。

Unterstützung für MATLAB编译器

麻省理工学院MATLAB编译器™MATLAB编译SDK™können Sie trainierte Richtlinien als eigenständig ausführbare Anwendungen, C/ c++共享库,微软®.NET程序集,Java®-克拉森和Python®-Pakete bereitstellen。

Bildschirm des MATLAB编译器zur Erstellung einer eigenständig ausführbaren Anwendung。

包装和自由贸易eigenständig ausführbare计划。

Referenzbeispiele

计算算法für机器人,selbstfahrende fahrzeeuge, Kalibrierungen, Zeitplanung und andere Anwendungen。

奥地利第一储蓄Schritte

Sehen Sie zu, wie Sie auf强化学习basierende Steuerungen für problem wie den Ausgleich eines inverversen Pendels, die Navigation im Grid-World-Labyrinth, den Ausgleich eines Wagen-Pendel-Systems und das Lösen generischer Markov-Entscheidungsprozesse entwickeln。

Feinabstimmung, Kalibrierung和Terminierung

Entwerfen Sie reinforcement - learning - richtlinen zur Feinabstimmung, Kalibrierung and Terminierung von Anwendungen。

Wasserverteilungssystem mit drei泵,Behälter和坦克。

资源zuordnungsproblem under Wasserverteilung。

强化学习-视频

强化学习-视频

Erfahren Sie in dieser Videoreihe mehr über强化学习。

Baidu
map