pscht, verrate das nicht meiner Frau
Ich lasse mein Bedientablet Töne erzeugen. Ließe sich sicher auch direkt auf smarte Lautsprecher übertragen.
Bei mir lasse ich per Webhook die Alexas was sagen, da ich sie ohnehin für die Sprachsteuerung benutze. Ich nutze dazu das alte alexa_tts, das ich auf dem Webserver meines MacMiniServer laufen lasse, auf dem auch mein iobroker läuft.
Hat halt den Nachteil, dass ich ab und zu den cookie erneuern muss.
Es gab hierzu natürlich auch schonmal einen Thread:
Hey @thechipperferret,
ich mache das schon von Anfang an über mein Wandtablet im Flur. Über homee wird ein Webhook mit dem Text gesendet und am Tablet liest Automagic diesen dann vor. Nachteil dieser Variante, im Flur ist es recht laut. Wer Bluetoothlautsprecher hat kann auch diese in jedem Raum nutzen, mich hat dabei aber gestört, das die Ausgabe nicht synchron war. Eine Möglichkeit über Yamaha Musiccast habe ich noch nicht gefunden. Sonos&Co. kommen/kamen für mich wegen der Cloudabhängigkeit auch nicht in Frage.
Ein Webhook sieht ungefähr so aus:
http://IP:PORT/sprachausgabe2?value1=Die+Waschmaschine+hat+ihr+Programm+abgeschlossen!+Waesche+bitte+entnehmen.
Finde ich recht einfach gelöst und so eine Zeile ist schnell mal in homee geschrieben…
Viele Grüße
JayJay
Anscheinend gehts wohl über node red, da gibt es eine Google Cast Node, an die kann man dann pushnachrichten oder was auch immer weiter leiten.
Denke ich werde bald den Raspi aufsetzen müssen…
Ah, schlau gelöst. Leider habe ich kein “übriges” Tablet um das zu lösen, aber ich habe den Verdacht (ausser der NodeRed lösung) muss ich irgendwie einen WebHook an Google Assistant übergeben können.
Danke für den Hinweis!
Funktioniert genausogut auf dem Smartphone. Hier lasse ich mir die Nachrichten von homee an Telegram vorlesen damit das auch unterwegs funktioniert Sollte mit Pushnachrichten auch funktionieren…
Viele Grüße
JayJay
Genau das funktioniert schon. Allerdings mit Alexa. Es gibt genau für diese Anwendung extra einen Alexa Skill. Ich meine das sogar hier im Forum irgendwo mal gelesen zu haben.
EDIT: Ich glaube das sollte es treffen:
Und zum Thema Google Assistent API:
Wenn ich das nicht total falsch verstanden habe, dann gibt es genau diese doch:
@JayJayX du kannst doch dein Tab auch per BT auf die Musiccast verbinden. Ob die Webhooks zum Koppeln und wiedergeben dann aber zeitlich nicht zu langsam startklar sind, weiß ich gerade nicht.
Sowas wie Blueprints für Google Home wäre perfekt. Denke das würde diese Problemstellung lösen können.
Bei Google Home scheint das allerdings explizit von Google erschwert zu werden, auch in IFTTT lässt sich der Asisstant nur als Trigger aber nicht als Action verwenden. Somit kann er in IFTTT keine Ansprachen machen. Könnte mir vorstellen dass es in der API ähnlich ist.
Tja, da sind mal wieder die Alexa user klar im Vorteil.
Apps für den Google Home sollte man schreiben können. Gerade einen simplen Pushnachrichten Vorleser für homee, nichts besonderes
Das Problem bei den Yamaha ist, dass sie nicht die Quellen mischen können, bzw immer auf dem BT Eingang sein müssen, dann kann man sie für nichts anderes Benutzen…
Da homee das mit der Sprachausgabe ja mal konnte und ich der Meinung bin, so was muss auch unabhängig vom Internet funktionieren, wäre das nicht eine Idee für eine neue Hardware? Lautsprecherwürfel die über (W)LAN Sprach und Soundausgaben vielleicht sogar Audiodateien abspielen:D Also ich würde mir sofort in jeden Raum einen solchen Würfel stellen. Ich liebe Sprachausgabe
Viele Grüße
JayJay
Also Sonos minus Cloud - die Dinger laufen (nach der Einrichtung) auch ohne Internetzugang (im WLAN), Du bekommst halt keine Updates, kannst sie aber auch lokal übers NAS mit Musik füttern…
Und lokal über homeean und die Sonos-API mit Warntönen / Samples füttern, die Du über Webhooks triggerst… TTS geht leider nur über Cloud-Dienste…
Stimmt, das ist der Punkt. Die Quelle lässt sich ja auch per Webhook ändern, aber 1. ist dann die Musik aus, 2. dauert das Koppeln eben.
Stell doch zusätzliche Musiccasts auf, die permanent gekoppelt sind. Der WX010 ist kaum teurer als ein Zusatz Würfel.
Auch bei den Alexa Blueprints kann kein Webhook als Trigger eingesetzt werden (straft mich gerne einen Lügner, wenn es doch geht).
Wenn es in irgendeinen namenhaften System (Alexa, Google Home, Siri) die Möglichkeit gäbe einen Webhook als Trigger einzusetzen, wäre ich vielleicht sogar bereit mir angebissene Äpfel ins Haus zu holen. Das wäre dann nämlich im Prinzip ein sehr mächtiger fünfter Würfel, wenn man bedenkt, was diese Assistenten alles steuern können.
Also steuern kann mein Google Home jetzt erstmal ne Menge, über Spracheingabe halt. Dieser Funktionsumfang ist für meine Usecases schon gut zu gebrauchen.
Was ich halt bescheuert finde, ist dass ich ne sprechende Box Zuhause stehen habe, die auf Zuruf alles mögliche schalten kann, aber nicht in der Lage ist im Bedarfsfall simple Informationen über mein Zuhause auszusprechen.
Im Idealfall stelle ich mir sowas vor:
Beim erstellen eines HGs, an der Stelle wo ich Push Benachrichtigungen auswählen kann, sollte neben ‘Alle Nutzer’, ‘Bestimmter Nutzer’ noch ein weiterer Punkt ‘Smartspeaker’ erscheinen. Verbunden sind sie ja eh schon mit den Würfeln, also müsste das doch möglich sein.
Das sollte aber gehen. Also wenn du sagst „OK Google, ist das Licht im Wohnzimmer an?“ Dann solltest du darauf auch eine Antwort erhalten.
Vermutlich meintest du aber, dass du die Information automatisch hören willst, wenn du beispielsweise die Haustür öffnest. Und genau das ist das Problem, dass man die Sprachassistenten nur über einen Sprachbefehl starten kann. Ich hatte an anderer Stelle hier schon mal provokant gesagt, dass man ja ein Smartphone neben einen smarten Lautsprecher legen kann und dann an das Smartphone eine Push Nachricht schickt, die dann am Smartphone automatisch vorgelesen wird. Auf diesem Weg könnte man dann wohl echt per homee fast alles machen, was dieses Assistenten eben so können, also z.B. auch an anderen smarten Lautsprechern Sprachkommandos ausgeben oder die Fritz Box steuern. Nur ist diese Lösung natürlich alles andere als smart und kann ja auch nicht im Sinne des Erfinders sein, ganz zu schweigen von der entstehenden Verzögerung.
Beim Google Assistant gibt es ja auch eine Funktion, die sich “Durchsage” nennt.
Da wird auf jedem Smartspeaker das Eingesprochene oder der durchgegebene Text abgespielt.
Man kann auch eine Durchsage an spezielle Smartspeaker senden. Das wäre was.
Ich weiß nicht, wie die Funktion von der API bereitgestellt wird, vielleicht kann da ein Dev mal ein PoC machen.
Genau an die Broadcast funktion dachte ich auch. Die wäre eigentlich ideal dafür. Kann man sogar auswählen auf welchen Geräten sie läuft.
Ich denke drüber nach ein Featurevorschlag zu machen
Hey, neben den vielen Möglichkeiten, die hier vorgeschlagen werden würde ich den von dir genannten Weg gerne nachbauen, da ich auch ein Synology NAS hier stehen habe. Allerdings sagt mir “Docker-node-SONOS-http-api” gar nichts. Hast du einen Link für mich mit Infos was ich tun muss, um dein Ergebnis zu erreichen?
Danke!