-
1 Übergangsmatrix
(f)матрица перехода -
2 матрица рассеяния
-
3 матрица перехода
Übergangsmatrix матем. -
4 матрица
матрица ж. англ., выч. Array n; Düse f; Feld n; Form f; физ. Grundgitter n; пласт. Mantel m; типогр. Mater f; мат. Matrix f; Matrize f; Modell n; полигр. Mutter f; Niederschlagform f; Preßring m; Prägeform f; Schnitt m; техн. Schnittwerkzeug n; текст. Stanze f; Stanzform f; Stanzmatrize f; Unterstempel m; Ziehdüse f; Zieheisen n; Ziehform fматрица ж. (штампа, волоки) Durchbruch mматрица ж. (напр., сплава) Grundmasse fматрица ж. (напр., холодновысадочного автомата) Stauchmatrize f -
5 матрица перехода
-
6 матрица переходов
nIT. Ubergangsmatrix, Verbindungsmatrix -
7 матрица рассеяния
n1) eng. Dispersionsmatrix, Ubergangsmatrix2) electr. Streumatrix3) atom. Streumatrize4) nucl.phys. Streuungsmatrix -
8 transition matrix
French\ \ matrice de transitionGerman\ \ ÜbergangsmatrixDutch\ \ overgangsmatrixItalian\ \ matrice di transizioneSpanish\ \ matriz de transiciónCatalan\ \ matriu de transicióPortuguese\ \ matriz de transiçãoRomanian\ \ -Danish\ \ overgangsmatrixNorwegian\ \ overgangsmatriseSwedish\ \ övergångsmatrisGreek\ \ πίνακας μετάβασηςFinnish\ \ siirtymämatriisiHungarian\ \ átmeneti mátrixTurkish\ \ geçiş matrisiEstonian\ \ üleminekumaatriksLithuanian\ \ perėjimo matricaSlovenian\ \ -Polish\ \ macierz przejściaRussian\ \ матрица переходов (из состояния в состояние)Ukrainian\ \ матриця переходівSerbian\ \ транзициона матрицаIcelandic\ \ umskipti fylkiEuskara\ \ -Farsi\ \ -Persian-Farsi\ \ ماتريس تغيير وضعيتArabic\ \ مصفوفة انتقال ، مصفوفة تحولAfrikaans\ \ oorgangsmatriksChinese\ \ 转 移 矩 阵Korean\ \ 전이행렬, 추이행렬
См. также в других словарях:
Übergangsmatrix — In der Mathematik, besonders der Wahrscheinlichkeitstheorie und Statistik bezeichnet eine Übergangsmatrix (manchmal auch Stochastische Matrix) eine quadratische Matrix, deren Zeilen oder Spaltensummen Eins betragen und deren Elemente zwischen… … Deutsch Wikipedia
Übergangsmatrix — pereinamoji matrica statusas T sritis automatika atitikmenys: angl. transition matrix vok. Übergangsmatrix, f rus. переходная матрица, f pranc. matrice de transition, f … Automatikos terminų žodynas
Harris-Ketten — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia
Markoff-Kette — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia
Markoffkette — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia
Markov-Chain — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia
Markov-Eigenschaft — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia
Markov-Kette — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia
Markov-Ketten — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia
Markov-Prozess — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia
Markov Chain — Eine Markow Kette (engl. Markov chain, auch Markow Prozess, nach Andrei Andrejewitsch Markow, andere Schreibweisen: Markov Kette, Markoff Kette) ist eine spezielle Klasse von stochastischen Prozessen. Man unterscheidet eine Markow Kette in… … Deutsch Wikipedia