Erste Schritte mit QiChat

  • Veröffentlicht am
  • von

Nach dem also Yumi endlich wieder spricht, geht es daran, ein erstes Dialogsystem zu entwickeln.

Zur Erinnerung: Yumi soll bei der Vermarktung unserer Bücher mithelfen und quasi als Verlagsassistenz arbeiten.

Zuerst einmal muss sie wieder ihre alte (weibliche) Stimme bekommen.

Offensichtlich funktioniert QiChat unter QiSDK genauso wie unter NaoQi2.5:

die zusprechende Zeile sieht also bei Yumi so aus:

override fun onRobotFocusGained(qiContext: QiContext) {
// The robot focus is gained.
val say: Say = SayBuilder.with(qiContext) // Create the builder with the context.
.withText("\\vct=135\\Hallo Papa und hallo Mama") // Set the text to say.
.build() // Build the say action.

// Execute the action.
say.run()
}


Die Sprachmodulation funktioniert also noch genau so wie vorher.

Ein wenig auf den Aldebaran/Softbank Seiten herumgesurft, wenn ich das richtig sehe, werden die alten Dialogsysteme nahezu unverändert weiter funktionieren.

Mit QiSDK hat sich also nicht geändert, dass Yumi nur versteht, was man ihr vorher gesagt hat:

Hat man "Hallo Yumi" vorgegeben, wird Sie "Hallo Yumi" verstehen und mit der vorgegebenen ANtwort antworten, aber "Yumi, hallo" wird sie nicht verstehen. Also doch externe KI-Dienste einbinden.