-
1 absorbing Markov chain
French\ \ chaîne de Markov absorbanteGerman\ \ absorbierende Markowsche KetteDutch\ \ Markov-keten met absorberende wandenItalian\ \ catena di Markov assorbenteSpanish\ \ cadena de Markov absorbenteCatalan\ \ cadena de Màrkov absorbentPortuguese\ \ cadeia de Markov absorventeRomanian\ \ lanţul absorbant Markov; lanţul absorbant al lui MarkovDanish\ \ absorberende markovkædeNorwegian\ \ absorberende markovkjedeSwedish\ \ absorberande markovkedjaGreek\ \ απορροφητική αλυσίδα MarkovFinnish\ \ absorboiva Markovin ketjuHungarian\ \ abszorbciós Markov-láncTurkish\ \ yutan Markov zinciriEstonian\ \ neelav Markovi ahelLithuanian\ \ absorbuojančioji Markovo (Markov) grandinė; sugeriančioji Markovo (Markov) grandinėSlovenian\ \ absorbira Markov verigePolish\ \ pochłaniający łańcuch MarkowaRussian\ \ поглощающая цепь МарковаUkrainian\ \ -Serbian\ \ -Icelandic\ \ hrífandi Markov keðjaEuskara\ \ Markov kate xurgatzekoFarsi\ \ -Persian-Farsi\ \ زنجير مارکوف جاذبArabic\ \ سلسلة ماركوف الامتصاصيةAfrikaans\ \ absorberende Markov-ketting (wat absorberende toestande besit)Chinese\ \ 吸 收 马 尔 可 夫 链Korean\ \ - -
2 Markov chain
French\ \ chaîne de MarkovGerman\ \ Markowsche KetteDutch\ \ MarkovketenItalian\ \ catena di MarkovSpanish\ \ cadena de MarkovCatalan\ \ cadena de MàrkovPortuguese\ \ cadeia de MarkovRomanian\ \ -Danish\ \ markovkædeNorwegian\ \ markovkjede; Markov-kjedeSwedish\ \ markovkedjaGreek\ \ αλυσίδα Markov ή Μαρκοβιανή αλυσίδαFinnish\ \ Markovin ketjuHungarian\ \ Markov-láncTurkish\ \ Markov zinciriEstonian\ \ Markovi ahelLithuanian\ \ Markov grandinė; Markovo grandinėSlovenian\ \ -Polish\ \ łańcuch MarkowaRussian\ \ цепь МарковаUkrainian\ \ ланцюг МарковаSerbian\ \ Марковљев ланацIcelandic\ \ MarkovskeðjaEuskara\ \ Markov-en kateFarsi\ \ -Persian-Farsi\ \ زنجير مارکوفArabic\ \ سلسلة ماركوفAfrikaans\ \ Markov-ketting ('n Markov-proses wat telbare diskrete toestande en tydstippe het)Chinese\ \ 马 尔 可 夫 链Korean\ \ 마르코프 연쇄
См. также в других словарях:
Markowsche Kette — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia
Markowsche Ketten — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia
Markowsche Kettenprozesse — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia
Markowsche Netzwerke — Ein Markov Random Field (kurz MRF) oder Markow Netzwerk ist ein nach dem Mathematiker A. Markow benanntes, statistisches Model welches ungerichtete Zusammenhänge (z. B. die Ausrichtung von Elementarmagneten) in einem Feld beschreibt. Das Feld… … Deutsch Wikipedia