-
1 enchaîner
ɑ̃ʃenev1) verketten2) (fig: des pensées) aneinander reihen3)enchaînerenchaîner [ã∫ene] <1>1 (attacher avec une chaîne) Beispiel: enchaîner des personnes l'une à l'autre Menschen aneinander ketten1 (s'attacher avec une chaîne) Beispiel: des personnes s'enchaînent à quelque chose/l'une à l'autre Menschen ketten sich an etwas Accusatif an/aneinander2 (se succéder) ineinander übergehen(continuer) Beispiel: enchaîner sur quelque chose mit etwas fortfahren -
2 maille
mɑjf1) ( tricot) Masche fmaille sautée/maille filée — Laufmasche f
avoir maille à partir avec qn — mit jdm aneinander geraten/mit jdm Streit haben
passer à travers les mailles du filet — durch die Maschen gehen/entkommen
2)débit sur mailles — TECH radialer Längsschnitt m
3)maillemaille [mαj]1 couture Masche féminin; Beispiel: filet à fines mailles feinmaschiges Netz; Beispiel: maille filée Laufmasche►Wendungen: glisser entre les mailles [du filet] durchs Netz schlüpfen
См. также в других словарях:
chaîne — [ ʃɛn ] n. f. • chaeine v. 1080; lat. catena I ♦ Suite d anneaux entrelacés (⇒ chaînon, 1. maille, maillon). A ♦ 1 ♦ Dispositif formé d anneaux entrelacés servant à orner. ⇒ chaînette, gourmette. Chaîne et médaille offertes au baptême. Chaîne d… … Encyclopédie Universelle
chaîné — chaîne [ ʃɛn ] n. f. • chaeine v. 1080; lat. catena I ♦ Suite d anneaux entrelacés (⇒ chaînon, 1. maille, maillon). A ♦ 1 ♦ Dispositif formé d anneaux entrelacés servant à orner. ⇒ chaînette, gourmette. Chaîne et médaille offertes au baptême.… … Encyclopédie Universelle
Probabilité stationnaire d'une chaîne de Markov — La probabilité stationnaire d une chaîne de Markov s interprète usuellement comme la fraction du temps passé en chaque état de l espace d états de cette chaîne de Markov, asymptotiquement. En effet, une version de la loi forte des grands nombres… … Wikipédia en Français
Graphe d'une chaîne de Markov et classification des états — Le graphe d une chaîne de Markov et la classification des états sont des notions de la théorie des graphes utilisées en calcul des probabilités. Sommaire 1 Graphe d une chaîne de Markov 2 Classification des états 3 Lexi … Wikipédia en Français
Graphe d'une chaîne de Markov — et classification des états Le graphe d une chaîne de Markov et la classification des états sont des notions de la théorie des graphes utilisées en calcul des probabilités. Sommaire 1 Graphe d une chaîne de Markov 2 Classification des états … Wikipédia en Français
Récurrence et transience d'une chaîne de Markov — Un état d une chaîne de Markov est dit récurrent si une trajectoire « typique » de la chaîne de Markov passe par une infinité de fois, sinon l état est dit transient. Ces propriétés de transience ou de récurrence sont souvent partagées… … Wikipédia en Français
chaîne — (chê n ) s. f. 1° Espèce de lien de métal, formé d une suite d anneaux. Chaîne de fer. Chaîne pesante. Chargé de chaînes. Retenir quelqu un dans les chaînes. Briser ou rompre ses chaînes. Chien à la chaîne. Mettre à la chaîne. • Le peuple… … Dictionnaire de la Langue Française d'Émile Littré
Chaine numérique — Pour les articles homonymes, voir Chaine. Ne pas confondre avec une chaine de télévision diffusée par voie numérique En enseignement des mathématiques, la chaine numérique ou chaine numérale[1] … Wikipédia en Français
CHAÎNE — s. f. Espèce de lien de métal, composé d anneaux engagés les uns dans les autres. Chaîne de fer. Chaîne d or. Chaîne d argent. Montre à chaîne. Une chaîne de montre. Tendre des chaînes dans les rues. Dans la marine militaire, on emploie aujourd… … Dictionnaire de l'Academie Francaise, 7eme edition (1835)
Chaine (mecanique) — Chaîne (mécanique) ██████████ … Wikipédia en Français
Chaîne (Mécanique) — ██████████ … Wikipédia en Français