Whiteout Posted December 9, 2015 Share Posted December 9, 2015 Hallo zusammen! Erstmals Daumen nach oben für die neue RS Version! Jetzt habe ich aber noch einige Fragen. Da ich blind bin streame ich, wenn es angeboten wird die zweite Audiospur. Dies geht bei TV-Sendern ziemlich einfach in dem ich den Sender ein zweites mal anlege und die Audiospur 2 zur Haupt Audiospur mache. Aber bei Aufnahmen gelingt es mir nicht. Ich verwende das *.ts-Format um Sendungen aufzuzeichnen. Ich habe, da ich auf mein iPhone streamen möchte, einen neuen Eintrag in der iPhoneprefs.ini angelegt, der sieht wiefolgt aus: [HLS Audio 192 kbit Audiospur 2]Cmd=-analyzeduration 1M -threads {threads} {offset} -i "{infile}" -threads {threads} -f mpegts -vn -map 0:2 -acodec libmp3lame -ab 192k -ar 44100 -ac 2 -y "{outfile}" Wenn ich nun eine Aufnahme auswähle, wo es eine zweite Audiospur gibt und das Preset "HLS Audio 192 kbit Audiospur 2" auswähle meldet die RS-APP immer, dass der angeforderte stream nicht geladen werden kann. Irgend wer eine Idee, was ich hier ändern kann? Grüße aus Wien Martin Link to comment
Tjod Posted December 9, 2015 Share Posted December 9, 2015 Nimm mal -map 0:a:1 statt -map 0:2. -map 0:a:1 nimmt die zweite Audiospur wohingegen -map 0:2 einfach den dritten enthaltenen Stream nimmt. Und wenn das zufällig nicht die Audiospur ist gibt es Probleme. Link to comment
Whiteout Posted December 9, 2015 Author Share Posted December 9, 2015 Cool Danke! Probiere ich gleich aus, wenn ich zuhause bin. Jetzt habe ich aber noch zwei Fragen: 1. Ich habe eine Aufgabe im RS deffiniert, die die zweite Audiospur als mp3 extrahiert... eben mit dem von mir bis jetzt verwendeten -map 0:2. Wenn ich als Aufnahme Formatstatt *.ts *.mpg auswähle Funktioniert das nicht. Ich habe es gerade hier mit alten aufnahmen (eben einer *.ts und *.mpg) versucht, Wenn ich bei der *.TS sage -map 0:a:1 nimmt er die zweite Audiospur, bei *.mpg muß ich -map 0:a:0 nehmen damit es die Zweite Audiospur ist... Kann ich das Irgendwo umstellen, das bei *.mpg das Spurmapping gleich ist (zumindest bei den Audiospuren) wie bei *.ts? Komischerweise wird, wenn ich die *.MPG-Datei mit einem Mediaplayer abspiele trotzdem die "normale" Audiospur genommen die ja wie oben geschrieben hier anscheinend ja die zweite ist...*verwirrt* 2. Könnte dein Tipp von oben auch helfen um das Streamen der zweiten Audiospur von Live-Tv ohne doppelte Sendereinträge zu ermöglichen oder ist das nicht vorgesehen? Danke und schönen Gruß Link to comment
Tjod Posted December 9, 2015 Share Posted December 9, 2015 zu 1. warum das so ist weiß ich nicht. Und beeinflussen kannst du das wenn überhaupt nur in dem du die Reihenfolge der Audiospuren beim ersten auftreten des Sensders in der Senderliste vertauscht. Sonst wüste ich nichts was einen Einfluss darauf haben könnte. zu 2. das geht derzeit nicht. Da der RS nur immer die erste Audiospur an FFmpeg weiterleitet. Und ob sich das ohne Nebenwirkungen ändern lässt müsste erst mal abgeklärt werden. Link to comment
Whiteout Posted December 10, 2015 Author Share Posted December 10, 2015 Hallo! Leider funktioniert auch 0:a:1 nicht... Kann es sein, dass auch bei aufnahmen nur eine Audiospur an ffmpeg übergeben wird? Die selbe Fehlermeldung kommt nämlich auch, wenn ich versuche einen TV-Sender mit 0:a:0 zu streamen, was ja per design nicht geht... und bei aufnahmen ist es eben die selbe Fehlermeldung. Oder noch eine andere Idee? Link to comment
Griga Posted December 10, 2015 Share Posted December 10, 2015 Kann es sein, dass auch bei aufnahmen nur eine Audiospur an FFmpeg übergeben wird? So ist es. Steht im 1.32 ChangeLog: Geändert/Fix: Transkodiertes Streaming: Der FFmpeg-Input hängt nicht mehr von den Einstellungen in den Recording Service Optionen → Web/UPnP → Zusätzliche TV-Daten ab. Er enthält immer nur eine Audiospur, keinen Teletext und alle DVB-Untertitel. Sorry, hätte mir früher einfallen können. An eine bestimmte Audiospur kommt man, indem man eine URL mit der entsprechenden Sender ID verwendet und z.B. im Browser ein entsprechendes Lesezeichen anlegt, über das man den Sender anwählt. Habe leider gerade keine Zeit, um das näher zu erläutern... Link to comment
Tjod Posted December 10, 2015 Share Posted December 10, 2015 Also für mich sieht es im svcdebug.log so aus als würde Aufnahmen direkt an FFmpeg übergeben und haben demnach auch alle Audios Spuren. Und zumindest bei mir klappt es bei WebM. Da ich kein iOS Device habe hatte ich damit getestet. Da ich denke dass das da genau klappen sollte. [WebM Audio 128 kbit]Cmd=-analyzeduration 1M -threads {threads} {offset} {realtime} -i "{infile}" -f webm -vn -map 0:a:0 -acodec libvorbis -ab 128k -ar 44100 -ac 2 -y -threads {threads} "{outfile}"MimeType=audio/webmext=.webm[WebM Audio 128 kbit zweite Tonspur]Cmd=-analyzeduration 1M -threads {threads} {offset} {realtime} -i "{infile}" -f webm -vn -map 0:a:1 -acodec libvorbis -ab 128k -ar 44100 -ac 2 -y -threads {threads} "{outfile}"MimeType=audio/webmext=.webm An ein brauchbares log von FFmpeg zu kommen um zu sehen was genau pasiert ist nicht ganz so einfach. den RS Stoppen und im Konfigurationsverzeichnis das svcdebug.log löschen den RS starten dann im Normalen Webinterface die Seite Konfiguration aufrufen und da die Unterseite UPnP und da UPnP debug logging aktivieren (das wird beim RS Neustart wieder beendet) und dann versuchen eine Aufnahme mit der zweiten Audiospur zu streamen. den RS wieder stoppen und dann hat man alle FFmpeg meldungen im svcdebug.log Da bei aktiviertem UPnP debug logging sehr viel im log landet sollte man da nur möglichst wenig machen währen das aktiv ist. Sonst wird das komplett unübersichtlich. Eventuell kann das auch jemand anders Testen. Mit einer Aufnahme und zwei Audiospuren als HLS Stream. Und dass das für Live TV nicht geht hatten wir ja schon. Link to comment
Griga Posted December 10, 2015 Share Posted December 10, 2015 Also für mich sieht es im svcdebug.log so aus als würde Aufnahmen direkt an FFmpeg übergeben und haben demnach auch alle Audios Spuren. Stimmt. Ich war vorhin in Eile und hatte nicht registriert, dass es sich um Aufnahmen handelt. Der ChangeLog-Eintrag gilt nur für Live TV. Link to comment
Whiteout Posted December 11, 2015 Author Share Posted December 11, 2015 Danke für die Antworten! Dann habe ich jetzt eine gute Beschäftigung für's Wochenende um das genauer zu analysieren ob da unterschiede sind zwischen WebM und HLS. Vielleicht findet ja auch wer einen Fehler in meinem HLS Preset so sieht es derzeit aus: [HLS Audio 128 kbit Audiospur 2]Cmd=-analyzeduration 1M -threads {threads} {offset} -i "{infile}" -threads {threads} -f mpegts -vn -map 0:a:1 -acodec libmp3lame -ab 128k -ar 44100 -ac 2 -y "{outfile}" Wie geschrieben, die Aufnahme hat definitiv eine zweite Audiospur trotzdem kommt immer "Stream konnte nicht geladen werden". Mit dem mitgelieferten HLS-AudioPreset tut's. Link to comment
Whiteout Posted December 12, 2015 Author Share Posted December 12, 2015 Hallo! Also mit HLS bekomme ich es einfach nicht zum laufen... Habe trotzdem eine Lösung gefunden. Habe jetzt in der iPhonePrefs.ini folgendes Preset eingetragen und damit tut's: [mp3 audio only 128 kbit AudioSpur2]Cmd=-threads {threads} {offset} -i "{infile}" -threads {threads} -f mpegts -vn -map 0:a:1 -acodec libmp3lame -ab 128k -ar 44100 -ac 2 -y "{outfile}"ext=.mp3MimeType=audio/mpeg Wie ich es jetzt hinbekommen sollte ein Video mit der zweiten Audiospur zu starten weiß ich zwar nicht, brauche ich aber auch nicht unbedingt. Wenn aber noch wer eine Idee hätte... Würde die Sache halt abrunden ;-) Gruß aus Wien Link to comment
Recommended Posts