4) Meteo et machine learning.

Alors petit récapitulatif des épisodes précédents, et de la finalité voulue pour notre projet:

Avec ça:

et un peu de ça:

sans oublier:

L’objectif c’est d’obtenir (dans les grandes lignes):

……….Ou tout du moins un modèle prédictif de météo sur pc puis sur raspberry pi, ce sera déjà pas trop mal, pour faire une station météo.

Les articles précédents datent un peu, mais cette fois je voulais prendre mon temps pour avoir le meilleur résultat possible et éviter de raconter ou faire trop de conneries. Il y a encore des choses à travailler mais nous en reparlerons pendant la conclusion.

PARTIE 1: traitement des données brutes(MeteoNet)

Précédemment, pour rappel on avait téléchargé gratuitement sur notre pc l’utilitaire Anaconda (plate-forme python, c’est un peu la boîte à outils du datascientist) et des données de Meteo France sur 3 ans via Kaggle (c’est le jeu de données MeteoNet). Pourquoi ? Pour au final bidouiller une station météo « intelligente », ou tout du moins pas trop conne et capable de prévoir raisonnablement la météo dans les heures qui suivent la collecte des données nécessaires à cette prévision, et ce pour le Nord Ouest de La France (Meteo France fournit aussi un jeu de données pour le Sud Est).

Anaconda est une plate-forme de machine learning faite pour des trucs comme ça. On a vu que le modèle des forêts aléatoires était à priori le plus intéressant grâce à ses scores et aussi le peu d’hyperparamètres…A paramétrer. Jusque là on a pas trop lorgné du côté du deep learning que nous explorerons avec keras et tensorflow (si mon pc a assez de patate).

Pour la direction et la force du vent on avait conclut d’après les courbes d’apprentissages et les scores que niveau nombre d’échantillons c’était juste. D’ailleurs on avait juste cherché à prévoir ces 2 variables. On va donc partir à la pêche aux échantillons et prévoir deux variables supplémentaires pour notre station: les précipitations pour savoir quand je peux sortir le cleb’s ou faire griller mes merguez (ou les deux), et la température pour savoir si je tond ma pelouse plutôt en slip ou plutôt en moufles. Il est possible de prévoir d’autres variables mais en se focalisant déjà sur celles-là on a du boulot.

I. Rédiger un module comprenant une classe pour faciliter le traitement des données.

Alors suite à tout ça, la meilleure solution à mon sens ça a été de rédiger un module (Meteo_terre_traitement) avec inclus dedans une classe (Meteo_Data_View) capable à partir des fichiers csv de meteo france de sortir des données prêtes et cuites à point pour sklearn. Le principe est très simple: on rentre les paramètres suivants:

  • heures: (défaut=1) indique combien on veut garder d’heures de relevé dans chaque journée. Par exemple 3 signifie que l’on utilise que des données toutes les trois heures. Donc plus on augmente ce paramètre, moins le dataset aura de dimensions par échantillon.

  • jours: (défaut=1) indique le nombre de jours par échantillon. Plus on met de jours, plus on augmente les dimensions du dataset tout en diminuant le nombre d’échantillons (on va diminuer le nombre de chances de trouver plusieurs jours à la suite sans données manquantes), et si on en met moins c’est l’inverse.

  • var_corbeille: (défaut=[], une liste vide ) indique les variables dont on veut se débarrasser (direction, force, humidité, précipitation, pression, temperature, point de rosée…) dans notre dataset. Plus on fournit cette liste et plus on réduit les dimensions/variables, en prenant toutefois le risque de perdre de l’information utile en route, mais en échange on va avoir des modèles moins gourmands en mémoire.

  • vue: (defaut=12) indique l’heure de la prévision meteo. Par défaut la prévision est réglée pour dans les 12 heures, mais on peut changer ça. Cette donnée doit être un multiple du paramètre « heures ». Si on paramètre pour avoir une vue dans 10 heures mais que l’on agence ses données toutes les 6 heures, ça va afficher un message d’erreur. On ne peut calibrer ce paramètre que entre une vue d’une heure et 23 heures pour une journée dans l’échantillon, jusqu’à 47 heures pour 2 jours dans un échantillon etc….

  • cible: indique quelle est la variable que l’on veut prédire; ça peut-être ‘direction’ pour la direction du vent, ‘force’ pour sa force, ‘température’ , ‘pluie’, ‘point_rosée’, ‘pression’, ‘humidité’, ‘direction’. Par défaut c’est la direction qui sera intégrée.

J’oubliai, on a ajouté également une variable temps dans notre dataset. C’est un numéro indiquant à quel mois l’échantillon a été enregistré.

Cette classe a des attributs pour récupérer les données traitées:

  • nom_objet.data_good_shape: contient le dataset prêt pour sklearn.
  • nom_objet.target: données cibles sélectionnées par le paramètre ‘cible’.

Tout ça donne au final des tableaux array au format int32 pour prendre moins de place sur le disque dur.

Au regard de mon pc (très bon marché), mes compétences (très limitées) et mon temps libre dédié à la bidouille (résultant d’un combat quotidien et acharné contre la procrastination, le curling sur béton, les convenances sociales et les tournois de water-jokari), l’instance la plus efficace que j’ai trouvé est d’utiliser les trois années avec des données toutes les heures, 3 jours par échantillon sans virer une seule variable. Ca donne un dataset ‘optimal’ de 508 dimensions et environ 180000 échantillons. Bien plus fournit que précédemment !

Au début j’avais pensé ajouter un paramètre supplémentaire dans la classe meteo_Data_View, pour interpoler sur certaines variables et donc augmenter le nombre d’échantillons. Par exemple une station meteo à moins de 20 km d’une autre mais avec des données de température manquantes serait complétée par les données de l’autre station. Au final je l’ai pas fait car déjà avec les données traitées mon pc est un peu limite niveau capacités et puissance, et aussi ça aurait risqué une corruption des données, mais bon à voir ça pourrait être intéressant à ajouter pour ceux qui ont un gros pc de gamer.

Le module est accessible via le site de votre humble bricoleur et aussi sur github à l’adresse suivante:

https://github.com/HarryTutle/meteo_forecast_NO_France

Si vous voyez des coquilles, des améliorations, surtout faites remonter l’info !

II. Pour ne pas avoir de surprises avec le matos…

J’ai oublié de préciser, par rapport aux articles précédents j’ai du changer de pc car pour manipuler des gros fichiers csv confortablement, faire du machine learning et du deep learning c’est incontournable. Je suis donc passé sur un optiplex 9020 i7 240Go avec 8Go de RAM SSD…Et après avoir cramé le disque dur et écouté un conseil avisé je l’ai chargé avec un disque dur de 1 To SSD et 16 Go de RAM supplémentaire et là ça le fait. Pour le disque dur le SSD c’est bien, HDD ça rame trop, en même temps sans surprise (le format HDD est plutôt fait pour stocker plus d’info au détriment de la vitesse de traitement, en gros, contrairement au SSD).

Le disque dur a cramé lorsque j’ai utilisé la commande ‘n_jobs’ (parallélise les calculs sur plusieurs coeurs du processeur pour aller plus vite) pour entrainer mon modele de foret aléatoire sur les trois ans. J’ai mis tout les coeurs en même temps sur les calculs, le pc a fait un bruit de décollage d’avion tel un Concorde prêt à s’élancer sans avoir lacé ses chaussures…Dorénavant je limite n_jobs à 2 coeurs en même temps.

III. Les forêts aléatoires

Avant d’aller plus loin je vous laisse un lien youtube qui explique bien le fonctionnement de ces forêts:

Alors bien que ce modèle de machine learning ne charge pas la mule niveau hyperparamètres, il en a quand même un paquet, cependant je me suis focalisé sur 3 d’entre eux; n_estimators, max_features et max_depth.

En utilisant Gridsearchcv de façon parcimonieuse (une trop grande grille rend le pc bègue, amorphe et incontinent) j’ai trouvé que pour mon pc et le dataset optimal la meilleure config c’est n_estimators=150, max_features=’auto’ et max_depth=None. Mais quand j’augmente les arbres à 150, je ne peut plus traiter toutes mes données sur mon pc du coup je suis resté à un réglage standard de 100 arbres.

n_estimators augmente le nombre d’arbres et baisse le risque de surapprentissage, max_features indique le maximum de variables que chaque arbre utilise pour se construire (auto correspond à la racine carrée du nombre de variables total du dataset) et max_depth indique la profondeur de l’arbre (None signifie que l’arbre sera approfondit jusqu’à avoir des feuilles ‘pures’, c’est à dire à catégorie unique, mais on peut stopper avant.

Niveau résultats sur les données test ça donne donc des scores autour de ça en arrondissant (tout les scores sur les train set donnent 99.8%, 3 jours par échantillons, données toutes les heures) :

vue :3h6h12h
direction du vent67.8%67.6%67.6%
force du vent75.5%74.8%74.8%
pluie99.9%99.9%99.9%
température86%86%86%
scores 3 jours/échantillon

Nom d’un bigorneau ! Mais ça prévoit la pluie à presque 100% !!! Hé bien…Pas vraiment. Après vérif, il y a en fait très peu de cas où dans notre array cible on a 1 (il pleut); on a très majoritairement des 0 (il pleut pas); donc le modèle va quasiment toujours prévoir 0….Va falloir trouver un autre moyen pour prévoir les précipitations, on verra ça à la fin.

Autre soucis; entre 6h et 12h les scores de prévision ne baissent quasiment pas hors ça devrait être le cas puisque c’est plus difficile de prévoir une météo à plus long terme…On va utiliser un autre dataset pour pas se planter.

PARTIE II : dataset des bouées marines et confirmation de nos résultats.

En continuant entre deux de fouiller les données en libre accès sur le net, je découvre avec un intérêt non dissimulé d’autres données libres de meteo france mais côté mer cette fois (hé hé !!). En effet on peut accéder aux données des bouées marines principales des zones maritimes françaises, les bouées dérivantes et aussi les relevés météo de certains navires de passage. On va se focaliser sur les données des bouées Brittany (large de Brest) et Gascogne (je vous laisse deviner où elle est). Ces données sont disponibles de 1996 à maintenant via quelques clicks de souris. Je n’ai pas pris en compte les données des navires et des bouées mouvantes, bref de tout ce qui bouge, car je me suis dit que le mouvement, surtout si il est rapide, pouvait biaiser la formulation de notre modèle au regard des déplacements des dépressions et autres systèmes météo.

Ce dataset est très similaire au premier, cependant il possède un nombre de variables plus conséquent (taille des vagues, nébulosité…); mais comme notre station sera limitée à quelques capteurs, donc quelques variables, on va en virer pas mal pour garder les même que notre premier dataset. Seule la variable précipitation sera manquante. J’ai aussi enlevé la nébulosité, pourtant intégrable via une diode photosensible car pour ces 2 bouées on n’a pas assez de données sur ce champ, malheureusement.

Ce second dataset va nous servir de test pour voir si on a pas merdé au premier. En effet, une fois les données fournies par meteo france sur les bouées traitées, on obtient des datasets plus compacts que le premier, donc moins énergivores et chronophages en traitement. Comment savoir si on est dans les clous et pas à côté de l’assiette ? Hé bien on va formuler des hypothèses de vérification:

  • Si on obtient des scores tout pétés (dans les 80/90%) pour la force ou la direction…A moins d’être bien prétentieux ou de croire encore au père noel, ça doit pas être bon !
  • Si on augmente le paramètre « vue », le score de prévision devrait normalement baisser au fur et à mesure; plus on cherche à connaitre la météo dans le futur et moins ce sera précis.
  • On devrait obtenir des scores assez similaires au premier dataset.
  • Pour chaque prévision, les variables les plus utilisées devraient être celles qui sont à la fin de l’échantillon (si l’échantillon est une journée simple et que la vue est à 12 heures avec comme cible la force du vent, normalement le modèle va surtout utiliser la dernière force du vent enregistrée car c’est cette donnée qui aura le moins de chances de bouger)

I.Rédiger un module pour le traitement de données

Comme précédemment, j’ai repris le même module que j’ai légèrement modifié pour pouvoir traiter ce nouveau jeu de données. Cette fois les heures ne sont plus dans les paramètres de la classe car de toute façon on peut toutes les traiter et changer ce paramètre fait baisser le niveau de perf.

Pour importer les données, il y a du nouveau; j’ai utilisé le module glob pour importer les dossiers mensuels rangés dans un dossier dans python via du regex, puis j’ai convertit chaque dossier en dataframe via le module gzip et pandas.

Le fonctionnement de ce module est exactement pareil que le précédent, il acouche des mêmes objets et attributs. Egalement téléchargeable sur le site (au bout de 10000 téléchargements, un magnifique cendrier en coquillage de saint-Jacques peint à la main vous sera gracieusement offert) et sur github:

https://github.com/HarryTutle/meteo-marine

II.Résultats du dataset des bouées.

Pour ce dataset on va prédire seulement la direction et la force du vent, puis la température. Je vous laisse vous amuser avec le reste si ça vous branche (attention toutefois à ce qu’on veut prédire, pour les variables qui sont des classes on prendra un modèle « classifieur » et pour les variables continues il faudra faire une régression). Pour ce qui va suivre train_test_split et les modèles sont réglés avec random_state=0. Les paramètres sont ceux par défaut avec max_depth=None et max_features=None également (feuilles pures et toutes les variables prises en compte pour faire l’arbre).

A. Avec le modèle de l’arbre de décision.

Avant de poursuivre je vous met un lien qui synthétise bien ce modèle:

Les histogrammes des degrés d’utilisation des variables

Ces histogrammes indiquent l’importance des caractéristiques pour chaque arbre selon la prévision demandée (type et projection dans le temps). La somme des variables est ici toujours égale à 1. Pour les trois variables on observe les changements à une heure, douze heures et vingt trois heures (vue) pour des échantillons d’une journée.

pour la direction du vent:

1 jour, une heure
1 jour, 12 heures
1 jour, 23 heures

Clairement, la variable la plus utilisée est le dernier relevé de la direction du vent. Plus la prévision avance dans le temps, plus l’importance de cette variable diminue alors que celle des autres augmente. Mais l’écart reste très flagrant entre cette variable et les autres.

Et maintenant la force du vent:

1 jour, une heure
1jour, 12 heures
1 jour, 23 heures

On constate grosso modo la même chose que précédemment.

Et enfin la température:

1 jour, une heure
1 jour, 12 heures
1 jour, 23 heures

Ici on ne remarque pas de changement drastique. Le modèle utilisera principalement la dernière mesure de la température comme référence dans sa prédiction.

Pour le moment ça colle avec nos hypothèses de départ.

Quelques petits essais avec cette fois le nombre de jours que l’on augmente par échantillon:

direction, 2 jours et 12 heures
direction, 3 jours et 12 heures

J’ai fait le même essai avec la température et la force, et on remarque la même chose: a partir de 3 jours, le modèle n’utilise plus la variable dernièrement mesurée de façon dominante.

Les scores (1 jour par échantillon)

Voilà les scores en conservant toutes les variables:

vue:1h2h3h8h16h23h
Force du vent59%56%55%51%51%52%
direction du vent66%63%62%58%58%58%
température94%93%92%91%90%90%
pourcentage de prédictions réussies

On remarque que l’efficacité de la prévision décroit à mesure qu’on avance dans le temps, surtout les trois premières heures. ça a l’air de se stabiliser ensuite. On ne contredit toujours pas nos hypothèses, c’est cool ça fait plaisir.

Et maintenant les scores en s’amusant à garder seulement la variable ‘prédominante » à savoir pour chaque ligne du tableau la force, direction et température précédemment enregistrées et en fourrant le reste dans la liste « var_corbeille »:

vue:1h2h3h8h16h23h
force du vent54%49%45%35%30%27%
direction du vent62%57%53%40%31%28%
température93%92%91%86%83%81%
pourcentage de prédictions réussies

Pour la première heure ça ne change pas beaucoup les résultats même si ils sont moins bons qu’avec toutes les variables, par contre ça se casse la figure assez vite au fur et à mesure de l’amplitude horaire de la prédiction.

B.Avec le modèle des forêts aléatoires.

Les histogrammes des degrés d’utilisation des variables

Pour la direction du vent:

1 jour, une heure
1 jour, 12 heures
1 jour, 23 heures

On voit que les forets aléatoires utilisent plus de variables pour affuter la prédiction. La variable la plus utilisée est la direction du vent. Plus la variable est éloignée en heures de la prévision et moins elle sera utilisée, et les autres en revanche sont de plus en plus sollicitées.

On passe à la force du vent:

1 jour une heure
1 jour 12 heures
1 jour, 23 heures

ça reste assez similaire à ce qu’on a pu voir avec la direction du vent.

Et pour la température:

1 jour, une heure
1 jour, 12 heures
1 jour, 23 heures

Pas de changement drastique en avançant dans le futur des prédictions avec la température.

Les scores (1 jour pour chaque échantillons).

Voilà les scores en gardant toutes les variables:

1h2h3h8h16h23h
Force du vent71%69%70%70%71%72%
Direction du vent76%75%75%76%76%78%
Température96%96%96%95%95%95%
pourcentage de prédictions réussies

Contrairement à l’arbre de décision ce qu’on remarque de suite c’est l’absence de baisse dans l’efficacité de la prédiction quand on avance dans le temps ce qui est étonnant. Les résultats sont meilleurs avec ce modèle (ça grimpe de 10% pour la force et la direction du vent). Par contre la non baisse dans le temps ça colle pas avec nos hypothèses…

Et maintenant en gardant juste la variable prédominante:

1h12h23h
force du vent67%42%37%
direction du vent72%41%31%
température95%89%85%
pourcentage de prédictions réussies

comme avec le modèle de l’arbre de décision, au début c’est similaire bien que moins bon et ça dégringole ensuite; pas de stabilisation cette fois.

Mais revenons aux scores qui ne baissent pas avec le temps pour les forets aléatoires; en creusant un peu le score ne baisse pas, mais c’est la certitude dans la prévision qui diminue semblerait-il. En utilisant l’attribut predict_proba du modèle (donne pour chaque classe sa probabilité de réalisation par échantillon, la probabilité la plus élevée est la prévision retenue), on remarque que la moyenne des probas les plus élevées diminuent dans le temps si la prévision va plus loin dans le futur:

1h2h3h12h23h
direction68%65%63%56%54%
force63%60%58%53%53%
température95%94%93%91%90%
moyenne des probas max(certitude)

Pour conclure sur le dataset des bouées

En testant plusieurs configurations des données, il semble que la meilleures configuration c’est 3 jours par échantillons en intégrant toutes les variables. On obtient ceci:

vue:6h12h
force du vent72%71%
direction du vent78%76%
température95%95%
scores pour 3 jours par échantillon

Ce qui donne des scores un peu au-dessus d’un dataset avec 1 jour par échantillon.

Pour finir…Ou plutôt poursuivre

Revenons au premier dataset provenant de MeteoNet. En calculant la certitude (via predict_proba) de la prévision pour la direction (3 jours par échantillon donc une forme (180000, 508)) on obtient ça:

vue :1h2h3h6h12h
score67.967.967.867.667.6
certitude54.754.654.454.454.5
scores et certitue en % pour un dataset de 3 jours par échantillon.

En comparant avec le dataset des bouées on voit que la certitude ne baisse quasiment pas, pareil pour le score… Peut-être parce que ce dataset est bien plus volumineux ?

Et maintenant avec un jour par échantillon:

vue :1h3h6h12h
score67.266.166.464.8
certitude57.953.751.246
scores et certitude en % pour un dataset de 1 jour par échantillon.

Ici on va avoir un dataset de forme (400000, 172). On voit mieux la décroissance de la certitude c’est marrant. Par rapport au tableau précédent on dirait que c’est le nombre de dimensions qui semble jouer là-dessus.

Bref, en comparant ces 2 datasets (nous appellerons le premier issus de MeteoNet Ben et le second issus des bouées Nutz) on remarque que:

  • les scores globaux de Ben sont un peu moins bon que Nutz. Je pense à cause de la pluralité des lieux présent dans MeteoNet, chacuns avec ses effets de site propres.

  • La direction du vent/température est mieux prédite par Nutz, ça peut s’expliquer par les effets de site sur terre, non présents sur l’eau, et aussi par la pluralité des lieux différents compris dans Ben, alors que Nutz ne comprend que deux lieux différents. Merde je me répète là je viens de le dire au-dessus.

  • La force du vent est légèrement mieux prédite par Ben, peut-être à cause des pets de mouette non présents à terre et …Non j’ai pas d’idées, les frottements plus présents à terre peut-être ?

Il y a des améliorations possibles:

  • Trouver un dataset sur la luminosité à l’extérieur pour ‘traduire’ la couverture nuageuse via une diode photosensible. MeteoNet intègre un jeu de données sur les types de nuages qui couvrent la zone par heure, cependant il faudrait faire le lien entre ‘type de nuages’ et ‘luminosité’ en lumen ou autre afin de pouvoir exploiter ça. Je pense que ça pourrait améliorer les modèles prédictifs surtout pour des zones comme le Sud-Est de la France plus sensible aux effets de sites et thermiques. Les nuages permettent de bien affuter une prédiction et malheureusement ils sont absents de nos datasets.
  • Tenir compte des données aberrantes, ce que je n’ai pas fait. C’est encore plus important si on va faire du deep learning.
  • Pour prédire la pluie, utiliser la variable point de rosée et humidité/pression plutôt.
  • Pour ceux qui ont un bon pc, améliorer les modules en traitant les données manquantes en utilisant les stations météo de proche en proche. De cette façon on récoltera plus d’échantillons, avec un risque de corruption mais limité si on gère bien les distances limite (pas plus de quelques kilomètres entre les stations utilisées).
  • Utiliser enfin Keras et tensorflow, notamment pour l’usage des réseaux RNR (réseau de neurones récurrents, à ‘mémoire’) car ces architectures sont bien adaptées (parait-il, je n’ai jamais essayé) aux séries temporelles. Peut-être auront-nous de meilleurs résultats ? Eventuellement essayer aussi les réseaux convolutifs.
  • Si mon pc n’est pas assez puissant ou si j’en ai marre, passer directement à l’assemblage de la station meteo car c’est quand même l’objectif de base.
  • Utiliser comme modèle le boosting d’arbres de décision. C’est souvent plus efficace que les forêts aléatoires, mais là avec la taille des données mon pc est pas assez puissant.

programmer une TI 89 (calculatrice) pour la navigation

Un truc  pratique pour éviter de galérer avec les calculs à faire pour la navigation, surtout quand la mer bouge et qu’on a une choucroute plus ou moins bien calée dans le bide qui ne demande qu’à sortir, probablement sur la carte pour dessiner une nouvelle île, ou alors dans la descente : programmer à l’avance une calculatrice, on économise le temps passé à l’intérieur du bateau, c’est moins chiant et en général on s’épargne plus facilement des relents pénibles.

Sur internet l’almanach du marin breton a publié des programmes à intégrer dans une TI83 pour la droite de hauteur, l’amplitude lever/coucher du soleil, et les arcs capables. Pour une TI89 ces programmes fonctionnent très bien, il y a juste une ou deux petites modifications à faire:

Sur le fichier, le symbole E n’a rien à voir avec la fonction exponentielle. C’est une sorte d’abréviation de l’écriture scientifique : E^2=100, E^3=1000…Et quand on tape ce symbole on ne note pas le ^ sur la calculette. Dans un programme il faut toujours à chaque fois indiquer la fin de la fonction « IF » par un « ENDIF » sinon la calculatrice va marquer « erreur syntaxe » un truc dans le genre. C’est pourquoi à la ligne 2 du paragraphe « mécanique céleste dans calendrier julien » la phrase ne se termine pas par « End » mais « Endif ». Dans le programme pour obtenir l’amplitude lever/coucher du soleil il faut rajouter les « Endif » manquants pour qu’il fonctionne.

En regardant un peu ces programmes, on peut en déduire d’autres comme la méridienne, la distance orthodromique, l’angle orthodromique, le calcul de sa distance par rapport à un amer de hauteur connue:

0001 (Copier)

0002 (Copier)

Pour le calcul de la déclinaison solaire, le programme du marin breton tient compte du mouvement elliptique de la rotation de la terre autour du soleil (partie: « mécanique céleste dans le calendrier julien ») qui influe sur l’évolution de la déclinaison le long de l’année, et part d’un point précis de localisation du soleil dans le temps. Cependant il existe une formule simplifiée pour déterminer la déclinaison du soleil ne tenant pas compte de tout ça et qui considère la trajectoire de l’orbite terrestre comme parfaitement circulaire (en réalité elle est quasiment circulaire, sa forme elliptique est vraiment très peu prononcée avec une excentricité de l’ellipse égale environ à 0.017. L’excentricité d’un cercle est de 0 pour se faire une idée). Cette formule, moins précise que celle exposée au début, est quand même bien pratique tout en étant aussi beaucoup plus simple!

Déclinaison=(23+26/60)*sin((360/365.256363)*(284+J))

Cette formule nous permet de faire un petit programme pour trouver une déclinaison solaire selon le jour, le mois, l’heure (pour l’année 2015 en la comparant au programme du marin breton la différence ne dépasse pas 1 degré vers mi octobre, pour le reste c’est assez précis) sans avoir à bord les éphémérides. Un second programme inspiré du premier permet d’avoir un calcul encore plus précis (on tient alors compte de l’ellipse) :

0001 (Copier)

0002 (Copier)

0003 (Copier)

Pour ces formules de la déclinaison on utilise une fonction sinus car si on met les jours de l’année en abscisse et les valeurs possibles de la déclinaison à l’année, sa forme représente le plus possible le phénomène. Avec une fonction cosinus se serait possible peut-être je pense j’ai pas essayé. Pour les paramètres d’une fonction sinus, c’est à dire comment la bidouiller pour changer sa période, son amplitude son point de départ c’est assez simple : on va prendre cet exemple : A*sin(B(x-H)). Le paramètre A règle l’amplitude de la fonction (valeur maxi et mini qu’elle peut atteindre), B règle la période car la période de la fonction sinus est égale à 360/B ( valeur absolue). Enfin le paramètre H règle le déphasage, par exemple la fonction y=sin x est une fonction impaire ayant pour centre de symétrie l’origine o, donc si x=0 alors y=0. Si maintenant on pose y=sin (x-3), alors y=o si x=3 donc on aura décalé la fonction sinus de 3 vers la droite sur les abscisses, on l’aura déphasé de 3 quoi.

 

Les panneaux solaires

C’est un assemblage de plusieurs cellules solaires(environ une quarantaine)montées en série. Une cellule solaire est faite avec deux plaques de silicium, dans chaque plaque on ajoute des petites quantités de conducteurs comme le bore dans la plaque positive et le phosphore dans la plaque négative. La lumière va venir perturber l’équilibre de ces éléments entre les plaques et provoquer une circulation d’électrons, donc du jus.

1)La lumière

Appelée aussi onde électromagnétique(dans star trek, c’est pas sorcier ou question pour un champion), c’est la seule onde capable de se mouvoir dans le vide(contrairement au son, par exemple. Quand dans star wars un vaisseau pète dans un gros badaboum bin c’est du chiqué en fait). Sa vitesse dans le vide atteint presque 300000 km/h, et rien ne peut dépasser cette vitesse. Plus la lumière rencontre un milieu dense, plus elle est ralentie et déviée(contrairement à la vitesse du son toujours qui augmente avec la densité du milieu traversé). On peut considérer la lumière à la fois comme une onde et un ensemble de particules, les photons. Un photon a une masse nulle et une charge nulle, c’est pourquoi il peut se déplacer à la vitesse la plus élevée. L’énergie d’un photon de lumière augmente avec la fréquence de la lumière. Par exemple le photon d’un rayon gamma transporte des milliards de fois plus d’énergie qu’un photon  radio. Gamma, radio, pédalo….qu’est ce que ça veut dire ?

Simplement que la lumière(visible) n’est qu’une partie des ondes électromagnétiques. Leur spectre recouvre pas mal de types d’ondes, allant de grandes longueurs d’ondes(plusieurs km)à de petites longueurs d’ondes(inférieures à la taille d’un atome). Les ondes électromagnétiques comprennent: les ondes radio, les micro-ondes, l’infrarouge, la lumière visible, les ultraviolets, les rayons X et enfin les rayons gamma avec les plus courtes longueurs d’ondes, donc les plus hautes fréquences. En fait la lumière peut être vue comme un déplacement d’énergie par petits paquets de photons.

La double personnalité de la lumière onde/corpuscule a été découverte par l’effet photoélectrique, la lumière qui percute du métal incite ce dernier à envoyer des électrons. Mais on a remarqué qu’une faible lumière bleue pouvait faire bouger ces électrons, mais pas une forte lumière rouge. Pourquoi ? parce qu’un photon « lumière bleue » aura une fréquence plus élevée que « photon rouge », du coup il sera capable de déloger l’électron contrairement au rouge. Quand l’électron d’un atome touche un niveau d’énergie suffisant il passe sur une orbite supérieure sinon rien, que dalle il reste tranquille. Et quand il touche ce niveau d’énergie et qu’il n’y a pas d’orbite supérieure à celle où il était vautré devant la télé, et bien il bouge ses fesses…et qui dit transfert d’électrons dit courant!

Pour résumer, moins la lumière sera filtrée par l’atmosphère, plus elle va conserver son énergie, ses hautes fréquences susceptibles d’activer la circulation d’électrons dans la cellule solaire, donc induire du courant! c’est pourquoi un panneau solaire sera toujours plus efficace avec un ciel bien dégagé et un soleil bien haut sur l’horizon.

2)Le panneau

Petit schéma d’une cellule photovoltaique:

cellule photoélectrique

La face négative(N) est dopée avec des atomes ayant plus d’électrons que le silicium(ici, le phosphore), et la face positive est dopée avec des atomes ayant moins d’électrons que le silicium(la face positive P, ici le bore). Quand les photons vont venir percuter la face N, si ils transportent assez d’énergie ils vont provoquer le transfert des électrons vers la face P, créant du jus. La puissance rayonnée par le soleil au niveau de la terre est en moyenne de 1 kw/m2, mais le rendement des cellules ne dépasse généralement pas les 20% donc pour un panneau de 1 m2 pas plus de 200 watts environ.

3)Différents panneaux

Il existe globalement trois types de panneaux solaires:

.Le monocristallin, il a le meilleur rendement. Il est bleu uniforme mais il coûte cher par contre.

.Le polycristallin, avec un rendement un peu moins bon, moins cher aussi. Il et bleu marbré.

.L’amorphe, faible rendement mais constant quel que soit le degré d’éclaircissement. Bon marché, couleur uniforme marron/gris.

cellule cristallin

 Remarque: le panneau doit être le plus possible face au soleil, l’inclinaison doit tenir compte de la latitude du lieu, donc le panneau doit être mis sur un support orientable.

Remarque: le rendement du panneau devient nul si 50% de sa surface est masquée.

Remarque: ne jamais nettoyer les panneaux avec des produits chimiques. Les nettoyer à l’eau régulièrement pour conserver un bon rendement.

Remarque: même avec de l’entretien le rendement du panneau diminue avec le temps.

4)Branchements

En général à l’arrière des panneaux il y a un boîtier contenant des diodes anti retour, elle permettent d’éviter aux batteries de se décharger dans les panneaux ce qui les abimerait. Si il n’y a pas de diodes anti retour il faut en installer. Si on installe plusieurs panneaux avec un répartiteur de charge on peut se passer de ces diodes. Pour ne pas surcharger les batteries il faut installer également un limitateur ou un régulateur de charge, comme pour les éoliennes.

Deux panneaux montés en série double leur tension produite, montés en parallèle cela double leur puissance(ampérage)produite. Il faut séparer les panneaux entre eux par des diodes anti retour. Il faut évidemment adapter le diamètre des câbles de branchement selon la puissance du courant et la distance entre les panneaux et la batterie. Ouàlaouala en gros quoi.

 

Les résines

Pour les bateaux en polyester, il existe un choix de résines aux propriétés différentes. Ce choix va dépendre du tissus de fibres utilisé, du procédé de réparation ou de fabrication , des caractéristiques recherchées et bien sûr du coût. Les caractéristiques principales de ces résines sont la résistance aux UV, à l’humidité, à la température élevée, le retrait(perte de volume au séchage), la thixotropie(viscosité de la résine).

1)La résine polyester

C’est la plus courante en raison de sa grande fourchette d’utilisation et de son prix. Cette résine liquide se solidifie(polymérise)grâce à l’addition d’un catalyseur(du peroxyde organique, en général du PMEC), et le démarrage de la réaction se fait avec un accélérateur, le cobalt. L’accélérateur permet de contrôler le temps de gel, le catalyseur équilibre plutôt le temps de gel à la température ambiante. De toute façon maintenant, pour des raisons de sécurité la plupart des résines sont préaccélérées, le cobalt est déjà présent et l’on ajoute juste le catalyseur(on ajoute entre 1 et 3% de catalyseur à la résine, plus il fait froid et humide, plus on en met. En moyenne on met 2%). Il ne faut jamais en mettre trop sinon la résine ne prend pas bien(craquelures, en plus le pot du mélange peut chauffer et fondre), pas assez ça ne polymérise pas.

Il y a deux types de résines polyester, les résines isophtaliques et orthophtaliques; ces dernières sont les plus utilisées car bon marché, mais elles sont moins résistantes à l’eau(absorption d’eau importante)et donc plus vulnérables à l’osmose(infiltration lente et progressive d’eau dans les coques en polyester). En plus leurs propriétés mécaniques sont également moindres. En fait pour le nautisme il faut utiliser de la résine iso(meilleure imprégnation des tissus, meilleure résistance à l’eau et aux agents chimiques, c’est mieux quoi!).

Les résines poly peuvent être chargées(silice, microbilles de verre…)pour augmenter leur thixotropie afin de faire du mastic ou de l’enduit pour reboucher des trous par exemple. Elle s’utilise pour imprégner les tissus de verre, de kevlar, mais pas avec le carbone. Lors de l’imprégnation des tissus, il faut toujours alterner une couche de roving(tissus tramé)avec une couche de mat(tissus avec de la fibre en vrac). Pour une bonne finition le mieux est de toujours commencer et finir par une couche de mat(plus facile à poncer), il faut deux fois plus de résine pour imprégner du mat correctement par rapport au roving.

Le principal problème avec les résines iso c’est l’absorption d’eau, en effet leur reprise d’humidité peut-être importante, entrainant une baisse des qualités mécaniques pouvant mener au délaminage(couches de strate se décollent, youpi…). Pour protéger la résine iso de l’humidité on doit l’isoler, pour cela on emploie un gel-coat ou une peinture polyuréthane(bi-composant)sur le stratifié.

Pour résumer: employer de la résine iso, toujours protéger la fibre avec gel-coat ou peinture bi-composant, lors de la stratification alterner mat/roving, durcit avec du catalyseur(PMEC)pas plus de 3%, mauvaise tenue sur le bois, peut imprégner le tissus de verre ou kevlar mais pas le carbone.

2)La résine époxy

Plus chère, mais beaucoup d’avantages. Sa reprise d’eau est très faible, elle a une meilleure qualité mécanique, résiste mieux au vieillissement et au délaminage. On obtient aussi un meilleur rapport poids/volume, non négligeable pour la course par exemple. C’est la résine la plus imputrescible, elle adhère sur tout quasiment(donc le bois contrairement à la résine poly). Bref c’est le top! Par contre sa résistance aux UV est médiocre. Les stratifié en époxy donnent une meilleure isolation thermique également.

Pour le séchage on utilise cette fois un durcisseur(en général un volume de durcisseur pour deux volumes de résine, de toute façon c’est indiqué sur les pots), par contre le rapport volumétrique entre les deux doit être le plus précis possible et la température doit être optimale sinon ça ne prend pas. Cette résine peut aussi être chargée avec de la silice(pour contrôler la viscosité de la résine, augmenter la densité du mélange), des micro-fibres(collages bois) ou du micro-ballon(enduits à basse densité, renforts dans l’âme pour passer un boulon ou couler un renfort).

Quand on imprègne du tissus avec de la résine époxy, on n’utilise pas de mat. On peut l’employer pour du tissus carbone. Le faible retrait de cette résine permet d’utiliser moins de quantités également.

Pour protéger le stratifié époxy des UV on applique dessus une peinture polyuréthane, le gel-coat ne tient pas. En fait il y a une petite phrase à retenir pour l’époxy: « l’époxy tient sur tout mais rien ne tient sur l’époxy( excepté les peintures bi-composantes) ».

Pour résumer: excellente résistance à l’humidité, excellente qualités mécaniques, peu de retrait, mauvaise résistance aux UV, mise en œuvre plus exigeante(dosage durcisseur/résine, température, hygrométrie), utilisable pour stratifier le bois ou imprégner le carbone, pas de mat utilisé lors de l’imprégnation,nettement plus chère en revanche. Protection aux UV par peinture polyuréthane. Autre petit détail une fois séchée elle est plus difficile à poncer.

3)La résine vinylester

Elle se situe chimiquement entre la résine polyester et la résine époxy, le prix également. On peut stratifier du vinylester sur du polyester, et comme cette dernière on utilise du mat.

4)Le gelcoat

C’est une résine faite avec différentes charges, elle protège le stratifié et donne un rendu final lisse; en général il est pré-accéléré et durcit avec un catalyseur. D’origine il est de couleur blanche pour réfléchir la lumière du soleil et mieux protéger des UV, on peut cependant ajouter un colorant pour lui donner une couleur choisie. Il existe des gelcoats utilisables dans les moules sans paraffine et des gelcoats pour réparation ou application sur la coque avec paraffine(permet au gelcoat de sécher à l’air libre).

5)Matériel de base

Quand on utilise de la résine il faut toujours prévoir une petite balance électronique pour peser précisément les quantités et une pipette graduée pour faire des mélanges bien équilibrés, des culs de bouteille plastique secs et surtout bien se protéger les yeux et les mains. Contre les dégagements de styrène il faut toujours porter un masque à cartouche.

6)L’osmose

C’est le principal problème rencontré par les coques en polyester quand elles vieillissent. Les signes de détection sont simples: il y a formation de petites cloques sur les œuvres vives de la coque, et on peut détecter pour les cas avancés une odeur de vinaigre(acide acétique) dans les  fonds du bateau, en perçant les cloques on détecte aussi cet acide acétique. L’osmose est une réaction chimique, elle s’explique facilement en prenant le cas(pas très funky je l’admet)d’un naufragé en manque d’eau douce qui craque en buvant de l’eau de mer(houlà pas bien!).

Boire de l’eau riche en sel déshydrate, cela est dût  aux membranes des cellules. C’est une membrane semi-perméable qui protège les molécules de la cellule, elle laisse passer les molécules nécessaires à la vie mais pas les autres. En fait ses pores réduits ne laissent passer que les très petites molécules(oxygène, gaz carbonique, eau pure…)et les grosses molécules(ions du sel dissous dans l’eau)ne peuvent pas passer. Si les solutions des deux côtés d’une membrane semi-perméable ont la même concentration, le milieu est équilibré et les molécules restent chacun de leur côté bien tranquillement. Si les concentrations sont inégales, alors les molécules d’eau passeront d’un côté ou l’autre de la membrane pour rétablir l’équilibre, c’est l’osmose. Donc l’absorption d’eau salée crée un milieu extracellulaire plus concentré en sel que le milieu intracellulaire, pour rétablir une concentration homogène la cellule va « donner » de l’eau au milieu extracellulaire, et se déshydrater(un poisson d’eau douce que l’on balance en mer meurt par déshydratation).

Pour une coque en polyester c’est un peu le même principe, de l’eau pénètre dans le polyester et détruit petit à petit la résine. Pourquoi? parce que lors de la fabrication de la résine il se crée de petites cavités dans la coque remplies d’un liquide très concentré en acides, il arrive que le catalyseur employé n’ai pas imprégné parfaitement tout les recoins de la fibre. Du coup dans ce cas ci l’eau franchit le gelcoat(la membrane semi-perméable)pour baisser la concentration en acides du liquide dans la cloque. Par hydrolyse il se forme alors de l’acide acétique, et le volume d’eau augmente et ne peut plus ressortir. Comme l’eau douce est moins concentrée en ions que l’eau de mer, alors les réactions d’osmose sont encore plus importantes en eau douce(lacs, rivières).

La corrosion en milieu marin

En mer, le matériel est soumis à rude épreuve par l’eau de mer pour les œuvres vives et par l’air salin pour les œuvres mortes. Leur action chimique lente et progressive sur le métal provoque de la corrosion.

1)Principe de la pile voltaique

Inventée par Alessandro Volta, elle consistait en un empilement alterné de disques de zinc et de cuivre séparés par du carton trempé dans de l’eau salée.

Pila_di_Volta_01

La borne négative est un disque de zinc(anode)et la borne positive est un disque de cuivre(cathode). L’électrolyte dans ce cas est le carton imbibé d’eau salée. La pile crée une tension en faisant circuler des électrons, le zinc va se corroder(c’est toujours l’anode qui se corrode)et les électrons perdu par le zinc vont à la cathode(ici, le cuivre). C’est une réaction d’oxydo-réduction où le zinc est le réducteur et le cuivre l’oxydant. Pour résumer un atome de zinc perd deux électrons qui migrent vers le cuivre, à proximité de la cathode ces électrons, grâce à une réaction de réduction vont créer du dihydrogène(2H20+2é donne 2OH-+H2).

Transposons tout ça dans de l’eau de mer. En immergeant une plaque de cuivre et une plaque de zinc à proximité, le zinc se corrode. Ici l’eau de mer joue le rôle de l’électrolyte. Le phénomène s’accélère en faisant passer un courant électrique entre les deux plaques ou en augmentant la température. C’est pour cela qu’il faut particulièrement veiller aux pertes électriques sur les bateaux en aluminium. En prenant deux autres métaux différents, par exemple le bronze et l’aluminium, on observe le même principe avec l’aluminium qui se corrode(installer une vanne en bronze sur une coque en aluminium…attention!).

2)Métaux forts/métaux faibles

le rôle d’un métal(cathode ou anode)est relatif, il dépend de la nature du métal auquel il est associé par contact direct ou indirect(air salin, eau salée). Voici une liste de métaux du plus résistant au plus faible à la corrosion par effet galvanique:

Inox, Nickel, Bronze, alliage Bronze/Alu, Cuivre, Laiton, Plomb, Fonte, Acier, alliage Aluminium, Aluminium et pour finir le Zinc.

(Remarque: L’inox A4 est celui à employer en milieu marin)

Avec ça on peut savoir à l’avance dans le milieu marin « qui bouffera qui »:

Par exemple en associant du Nickel avec du Laiton,  l’anode sera le Laiton. En associant de la Fonte avec de l’Acier, l’anode sera l’Acier. Plus l’écart est grand entre deux métaux de cette liste et plus l’effet galvanique est important(Inox+Zinc=Bingo!).

3)Précautions

Pour la mise en contact de deux éléments:

corrosion

Prenons l’exemple d’un mât en aluminium(le support)où l’on veut installer une platine en inox(exemple une cloche de tangon). Les fixations doivent être du même métal que l’objet fixé(ici un rivet inox par exemple), et la platine doit toujours être isolée du support par un mastic élastomère(type sika). Sinon, bonjour les dégâts! La fixation(rivet, vis)doit aussi être isolée du support(mastic élastomère pour un rivet et graisse pour une vis). Il faut toujours prendre bien soin d’ébarber les trous percés et de nettoyer les zones de contact avant la fixation pour ne pas emprisonner des copeaux d’inox sous la platine, entrainant une corrosion par piqure(éviter aussi les rayures sur les pièces).

Pour deux pièces d’un même métal, il faut aussi les isoler par un mastic. Si la platine n’est pas chanfreinée, il faut faire un chanfrein autour de la platine pour éviter que l’eau ne rentre(corrosion par aération différentielle).

4)Anodes

D’après ce qu’on a vu, les pièces métalliques sur un bateau sont soumises aux phénomènes électrolytiques, donc à la destruction progressive. Pour éviter cela on utilise des sortes de fusibles à bord, ce sont les anodes. Ces dernières vont se détruire à la place des pièces métalliques du bateau. Il faut changer régulièrement ces anodes. Elles sont faites soit en alliage Aluminium/Zinc ou en Aluminium(les métaux les plus faibles de la liste un peu plus haut). D’après ce qu’on a vu dans le petit deux, les anodes en aluminium durent plus longtemps, elles fournissent aussi une meilleure protection. Les anodes protègent la coque, l’hélice, l’arbre, le moteur in-bord. En eau douce on emploie des  anodes en Aluminium, en mer plutôt des anodes en alliage Aluminium/Zinc.

Les bouts

Les anciennes cordes en fibre végétale présentaient beaucoup d’inconvénients, avec l’humidité elles gonflaient et perdaient de leur résistance, pourrissaient ou moisissaient. Du coup leur rapport poids/résistance était médiocre, les rendant encombrantes. En plus elles pouvaient blesser les mains des marins surtout par temps froid(exemple: papyrus, fibre de coco, chanvres, sisal…). Heureusement il y a eu beaucoup de changement!

1)Premières cordes synthétiques

.Polyamide(nylon): il a pour origine le traitement du charbon. En brûlant il dégage une fumée blanche et une odeur de céleri, on l’emploie pour les amarres et les bouts de mouillage en raison de son aptitude à l’élasticité.

.Polyester: issus du pétrole, sa flamme dégage une fumée noire. Moins apte à s’étirer que le polyamide, il peut même devenir non déformable après traitement(pré-étirage)à la fabrication. Il est donc utile à des bouts où du mou dans la corde pourrait être désastreux(ex: drisses). On l’utilise beaucoup pour faire des gaines sur âme kevlar ou spectra.

.Polypropylène: provient du pétrole également, il dégage une odeur de cire en se consumant. C’est le moins résistant des trois mais aussi le plus économique, et il a la capacité particulière de flotter. On peut l’employer comme amarres mais il est surtout utilisé pour le matos de sécurité(ex: halin pour feu à retournement en cas d’homme à la mer).

2)Nouvelles cordes synthétiques

.Polyéthylène: de couleur blanche il brûle en dégageant une odeur de cire. Sa forte résistance pour un poids réduit permet une économie de poids sur le gréement, notamment dans les hauts(spectra, dyneema).

.Aramide(kevlar): couleur jaune beige, ne fond pas. En revanche il craint l’abrasion et les U.V, il faut donc l’utiliser sous gaine pour le protéger. On l’emploie pour les drisses, bastaques et bras de spi.

.LPC(vectran): il est jaune et on l’utilise beaucoup pour faire des manilles textile et des fixations.

.PBO(zylon): de couleur jaune. Mis sous gaine, on l’utilise pour faire des haubans.

3)Caractéristiques employés pour les bouts

.La densité: c’est la capacité du bout à flotter, comme la densité de l’eau=1, si le bout a une densité<1 alors il flotte. Sinon il coule.

.La ténacité: la résistance à la rupture.

.Le fluage: c’est l’allongement irréversible sous la contrainte d’une charge constante.

.La reprise d’humidité: c’est la quantité d’eau que retient la fibre après immersion(exprimée en %).

Concernant la charge de rupture il existe des abaques dans le choix des bouts, on peut aussi utiliser cette formule:

Charge=S*V au carré*0,02104(S=surface de la voile, V=vitesse du vent en nœuds, charge exprimée en kg).

Pour la croisière la tension moyenne est à multiplier environ par 4. L’utilisation du cordage se fait à 25% de sa charge de rupture. Pour la compétition on cherche une utilisation avec un pourcentage plus élevé à la charge de rupture, simplement pour gagner du poids.

4)Longueur des bouts

En général il faut compter la longueur avec trois tours de winch et 1,5m de dormant, puis rajouter 1,5/2m à la longueur idéale afin de recouper les extrémités qui fatiguent dans les nœuds au bout d’un certain temps.

.Ecoute de grand-voile: elle se mesure selon la démultiplication utilisée, elle ne doit pas être plus longue que la marque de vent arrière(longueur limite où, dès que l’on a choqué, la bôme touche les haubans sous le vent)augmentée de la longueur indispensable pour manoeuver au vent.

(Remarque: pour un palan de grand-voile, le rapport de démultiplication de l’écoute est égal au nombre de brins sortant de la poulie qui bouge)

.Drisse de grand-voile: elle doit pouvoir être frappée sur le pont quand elle ne sert pas avec un dormant d’au moins deux mètres à la sortie du bloqueur.

.Barre d’écoute: en étant choquée sous le vent elle doit cependant être utilisable au rappel.

.Balancine de tangon: elle doit pouvoir rester capelée sur le tangon à plat pont et prise en même temps au pieds de mât, et laisser libre le passage de l’écoute de foc.

Bosse de ris: elles doivent être suffisamment longues pour pouvoir être mises à poste avec la grand voile haute, ou au moins pour le ris un et deux(mais bon les trois c’est mieux surtout en équipage réduit).

.Bras et écoute de spi: environ deux fois la longueur du bateau plus un mètre.

.Ecoute de foc: avec le tangon à poste elle doit passer devant la balancine, au dessus du tangon et revenir au cockpit.

5)Surliures et épissures

Un nœud sur un bout fait perdre à ce dernier environ 50% de sa charge de rupture. Il existe cependant un moyen à ça: les épissures. Elles se font sur les aussières(les épissures sur les aussières à trois torons sont les plus simples)et sur les drisses principalement(un peu plus coton).

epissure3torons

épissure sur une aussière à trois torons.

Les surliures empêchent l’extrémité du bout de s’abimer, on peut aussi utiliser des manchons thermo-rétractables(même principe que la gaine thermo-rétractable en électricité)si on n’est pas adepte de la couture. Il est bien utile de faire des surliures sur tout les bout à bord. Le fil à surlier est un fil gras afin de bien tenir en place pendant la couture, dès que la surliure est faite on le chauffe un peu au briquet pour finaliser le travail. Voilà un exemple de surliure cousue sur du trois torons(il vaut mieux faire toujours des surliures cousues, elles tiennent bien mieux dans le temps).

surliure