]> Git — Sourcephile - sourcephile-txt.git/blob - ddc/ddc8-logiciellerie-une_infra.md
ddc8: zsh
[sourcephile-txt.git] / ddc / ddc8-logiciellerie-une_infra.md
1 # Une première infrastructure informatique pour Sourcephile
2 - Demande de Critiques: 8
3 - De: Julien Moutinho (julm)
4 - À: Sourcephile
5 - Phase: Écriture
6 - Révision: 3 (2020-01-07)
7 - Licence: Creative Commons BY-SA
8
9 # Bilan approximatif
10 ## Mentions possibles
11 - R: « À rejeter »
12 - C: « À clarifier »
13 - A: « À améliorer »
14 - T: « À tester »
15 - G: « À garder »
16
17 ## Analyses des préoccupations
18 ### [G] Pour l’indépendance
19 #### [G] Concernant les charges
20 - [G] julm: on est sur une dépense de ~300€ de matériel (~100€ de plus s’il n’y avait pas le réemploi d’un SSD) pour une espérance de fonctionnement et d’usage >5ans, et un récurrent de ~60€/an pour l’hébergement. C’est un prix très correct pour ce que c’est.
21 #### [T] Concernant l’autonomie
22 - [T] julm: on a la main sur le matériel, le logiciel, mais par tellement sur l’hébergement (toutefois 15km, ça reste à portée de vélo).
23 #### [C] Concernant les produits
24 - [C] julm: aucun service non-lié à la production n’est proposé aux membres.
25 ### [T] Pour la science
26 - [T] julm: on peut mettre du NixOS, mais ce n’est pas une machine avec beaucoup de CPU et de RAM, mais ça devrait largement suffire et me dépanner tant que je n’ai pas d’élec @home.
27 ### [T] Pour la production
28 - [T] julm: la machine peut suffire pour commencer, l’hébergement aussi mais peut rapidement être limitant (ce n’est qu’une VDSL2+). Côté sécurité on est en open-source, mais que partiellement en matériel ouvert. Mutualiser pleins de services sur une seule machine n’est pas l'idéal mais un cloisonnement LXC (sans virtualisation) devrait suffire puisque tous les services seront sous GNU/Linux et contrôlés par nous. L’hébergement est semi-professionnel, sécurité raisonnable vue les enjeux. Côté maintenance on peut mettre du NixOS ce qui me simplifiera la tâche. L’hébergeur n’offre pas (encore) de seconde connexion via le port série et n'est que semi-professionnel, par contre il est proche.
29 ### [A] Pour l’essaimage
30 - [A] julm: on est en logiciel libre, mais que partiellement en matériel ouvert. Deux raisons bloquantes à cela : le manque de support de NixOS (quid de Guix ? et plus gravement de Haskell pour les architectures ARM.
31 ### [A] Pour la coopération
32 - [A] julm: les machines sont fabriquées à l'autre bout de la planète dans des conditions sociales probablement déplorables.
33 ### [A] Pour l’environnement
34 - [A] julm: c’est une machine très basse consommation, mais c’est quand même une consommation.
35
36
37 # Explications
38
39 ## Motivations
40 ### S'émanciper d'autogeree.net
41 Les logiciels que j'écris sont actuellement hébergés sur `chomsky.autogeree.net`, une machine virtuelle (VM) relativement modeste que me fournie Grésille depuis 2011 (en contre-partie d'un Dell R210 surnommé « chomsky » et acquis dans l'enthousiasme naïf de l'essaimage de FDN, puis resurnommé « rouf » par Grenode). Cette VM m'a longtemps servi de bac à sable pour jouer à l'adminsys, et sert encore à un copain et moi-même pour avoir du mél et de l'IRC.
42
43 `chomsky` est une Debian dans une machine virtuelle Xen (1 CPU, 750Mo de RAM, 50Go de stockage HDD), dans une machine hébergée professionnellement en datacenter à Grenoble. Cette machine est actuellement reliée à l'Internet par une autre infrastructure de Grenode à Lyon (au Netcenter via l'association Rézopole).
44 `chomsky` n’a pas vraiment les ressources d’une machine de développement (nixpkgs c’est déjà 10Go de stockage, stack 5Go, et le REPL de GHC ou de PureScript c’est minimum 0.5Go de RAM).
45
46 autogeree.net ne peut donc plus assurer mes besoins, et je n’arrive pas à convaincre qui que ce soit de porter avec moi une énième tentative d’association, nommée « Sourcephile », mais il me faut assurer la continuation du développement des logiciels libres qui me tiennent à cœur, et par conséquent je choisis d’entreprendre unilatéralement ce qu’il faut pour cela : `mermet.sourcephile.fr`, nommée d’après feu Laurent Mermet.
47
48 ### S'émanciper de Debian
49 Depuis que je me suis mis à NixOS, je ne suis plus enthousiasmé par Debian. En tant que dev il est bien plus facile de faire et de partager de manière reproductible et récente des paquets NixOS que des paquets Debian (dans le cas de paquets Haskell tout du moins). Et en tant qu'adminsys il est bien plus facile de maîtriser ce qu'il se passe sur une NixOS que sur une Debian. Le seul avantage de Debian en ce qui me concerne c'est sa plus grande portabilité sur des architectures basse conso ou OSHW comme certaines ARM ou MIPS. Mais ce n'est **certainement** qu'un avantage temporaire.
50 Pour approfondir ces raisons techniques, on peut voir par exemple les tutoriels francophones de Nokomprendo : https://nokomprendo.gitlab.io/
51
52 Cependant, il est **peu probable** que je puisse passer `chomsky` sous NixOS, car mon copain n’envisage pas de se mettre à NixOS, et puis c'est une opération risquée demandant une intervention délicate sur une machine hébergeant actuellement des services en production (essentiellement nos méls persos en MX n°1).
53
54 ## Objectif
55 L’objectif principal est de continuer d’habiter sur Internet, en assurant ce qu’autogeree.net ne peut plus assurer ou n’a jamais véritablement assuré.
56
57 ### Objectif minimal : infra de publication
58 Cet objectif adresse en priorité les besoins de diffusion au public du travail des membres contributeurs : dépôts des sources, dépôts des binaires, pages Web d'informations. Le public n'y a que des accès en lecture seule.
59
60 - Noms de domaine (nsd4, unbound)
61 - Shell distant SSH (openssh)
62 - Pare-feu (shorewall)
63 - Forge logicielle (gitolite, gitweb, nginx)
64 - Dépôts binaires (cachix, apt)
65 - Site Web de rendu des journaux de bord (nginx)
66 - Site Web de rendu des demandes de critiques (nginx)
67 - Site Web de rendu des documentations (nginx)
68 - Certificats X.509 pour du HTTPS (certbot, nginx)
69 - Clés de signature et d'authentification dédiées OpenPGP (gnupg, openpgp2ssh)
70 - Authentifications secondaires dédiées (yubikey)
71 - Monitoring (monit | nagios)
72
73 ### Objectif modeste : infra d'équipement interne
74 Cet objectif adresse en priorité les besoins d'équipement des membres contributeurs : stockages sécurisés et connexions sécurisées. Le public n'y a aucun accès d'usage, mais peut avoir des accès en écriture ou lecture selon des interfaces restreintes et contrôlées.
75
76 - Adresses méls (postfix, dovecot2, rspamd)
77 - Listes méls internes (aliases postfix)
78 - Écriture collaborative en ligne en temps réel (gobby | etherpad-lite | prose)
79 - Messagerie instantanée (prosody | matrix)
80 - Chiffrement du stockage (ZFS, dm-crypt, dropbear)
81 - Gestion des accès (unix | openldap | intégré aux applications)
82 - Partages volumineux en ligne (nextcloud)
83 - Partages textuels jetables (pastebin)
84 - (optionnel) Calendriers en ligne (davical | nextcloud)
85 - (optionnel) VPN DNS (iodined)
86 - (optionnel) VPN (wireguard)
87 - (optionnel) Audioconf (mumble)
88 - (optionnel) Visioconf (jitsi)
89 - (optionnel) Partages binaires jetables (coquelicot)
90
91 ### Objectif honorable : infra de contribution publique
92 Cet objectif adresse en priorité les besoins de communication en ligne entre les membres contributeurs et le public : sites Web de présentation et réseaux sociaux en ligne.
93 - Rapports de bugs (gitlab | gitea)
94 - Messagerie instantanée (salon IRC type #sourcephile@irc.geeknode.net | prosody interne | serveur Jabber externe)
95 - GitLab
96 - Site Web des (futures) démonstrations (judgmentphile, docphile, ledgerphile, relotophile)
97 - Listes méls publiques (discourse)
98 - Forums publics (discourse)
99
100 ### Objectif ambitieux : infra de mise en commun
101 Cette objectif adresse en priorité les besoins de la mise en commun en ligne.
102
103 - (optionnel) Microblogging (mastodon | serveur externe)
104
105 ### Objectif maximal : infra de services
106
107
108 ## Études
109 ### Hébergement
110 #### PTT
111 PTT est une association qui tient un (tiers-)lieu à Tarnac en Corrèze.
112 Il est possible d’y héberger de petites machines à basse consommation pour 2€/mois (plus 3€/IPv4), dans une salle dédiée aux serveurs.
113 Tarnac est au milieu du plateau de Millevaches, autrement dit en périphérie d’Internet.
114 Le réseau est une VDSL2 fournie par Ilico/Grenode/Ielo-Liazo/Orange, soit environ 40Mbps descendant et 12Mpbs montant (mais pour l'ensemble de l'hébergement !).
115
116 #### Tetaneutral
117 Tetaneutral est une association à but non-lucratif basée à Toulouse.
118 Tetaneutral est bien établie et active dans le portage de la cause de l’Internet libre.
119 Il est possible d’y héberger de petites machines à basse consommation pour 5€ à 10€ par mois, dans une salle du squat artistique Mix'art Myrys :
120 http://tetaneutral.net/adherer/
121 Le réseau est une fibre optique directement reliée à centre de données Cogent voisin :
122 https://tetaneutral.net/historique/
123
124
125 ### Machines
126 #### APU2 de PCengines
127 L’APU2 est un routeur conçu par une entreprise suisse (PCengines) et fabriqué à Taïwan. Le CPU est un AMD, dont l'architecture « x86_64 » est officiellement supportée par GHC, NixOS et ses caches binaires. Ce n'est pas complètement en matériel ouvert car certains composants clés comme le CPU ne le sont pas, mais PCengines publie ce qu'elle fait elle pour sa part (schémas et code source des modifications à Coreboot).
128
129 PCengines a une renommée et une maturité certaine dans la conception de machines (ce n'est pas leur première), il ne s'agit donc de produits issus d'une random startup d'amateur.rices, ou autres personnes davantage préoccupées par le time-to-market plutôt que par le long-time-support. L’APU2 est explicitement vanté, et ses composants choisis, pour assurer sa disponibilité sur le « long-terme ».
130
131 L’APU2 est généralement utilisé comme routeur, mais peut aussi servir de petit (en terme de services peu gourmands côté serveur) serveur, voire de petit (en taille de stockage) « NAS » (Network Attached Storage), voire de petite (en puissance de calculs) machine de développement pour dépanner.
132
133 L’APU a plusieurs versions : APU2, APU3 et APU4. L'APU2 est annoncé comme celui consommant le moins : 10W max contre 12W max pour l’APU3 et l’APU4, et la version 4Go de RAM de l'APU2 a une NIC i210AT légèrement meilleure que la i211AT des autres. L’APU3 est optimisé pour faire de la 3G/LTE. Et l’APU4 a un quatrième port Ethernet, mais ne rentre pas dans l’enclosure RMT-CASE-S1 permettant de mettre des disques supplémentaires.
134
135 Ressources :
136 - https://pcengines.ch/howto.htm
137 - https://openwrt.org/toh/pcengines/apu2
138 - https://www.cs.cmu.edu/~davide/howto/apu4c4.html
139 https://blog.linuxserver.io/2016/12/17/review-pcengines-apu2-c4-prebuilt-by-linitx/#vpnperformance
140 - https://teklager.se/en/knowledge-base/
141
142 ##### Caractéristiques
143 - Processeur : AMD G series GX-412TC (Turbo Core), 4x 1GHz Jaguar core with 64 bit support
144 - Specs :
145 - http://www.cpu-world.com/CPUs/Puma/AMD-G-Series%20GX-412TC.html
146 - http://support.amd.com/TechDocs/52740_16h_Models_30h-3Fh_BKDG.pdf
147 - 170€HT, http://store.clemanis.com (PCE-APU2E4)
148 - 148€HT, https://teklager.se/en/products/router-components/pc-engines-apu2d4
149 - 128€HT, https://www.wispmax.com/pc-engines-apu2b4-system-board.html
150 - Coprocesseur : AMD CCP avec AES-NI
151 - https://openwrt.org/toh/pcengines/apu2#cryptographic_hardware
152 - Cache L1 : 32K data cache + 32K instruction cache per core
153 - Cache L2 : 2MB shared
154 - Mémoire : 1x 4Go DDR3-DRAM 1333Mhz ECC (soudée !)
155 - Stockage : Boot from SD card (built-in adapter, connected through USB), USB or m-SATA SSD. 1 SATA data + power connector
156 - Électricité : 12V DC. About 6 to 10W depending on CPU load. Recommend for at least 1.5A to provide margin for peripherals
157 - Extensions : 2 miniPCI express (one with SIM socket for 3G modem), LPC bus, GPIO header, optional I2C bus, COM2 (3.3V RXD/TXD)
158 - Réseau : 3x Gigabit Ethernet (Intel i210AT), 1 DB9 serial port (console)
159 - https://www.intel.com/content/dam/www/public/us/en/documents/faqs/ethernet-controller-i210-i211-faq.pdf
160 - the i210AT is better, as it has 4 transmit and 4 receive queues, where the i211AT only has 2/2
161 - Firmware : CoreBoot open source system BIOS with support for iPXE and USB boot
162 - Enclosure :
163 - 35€HT, 245mm x 157mm x 39mm, espace pour 3 disques 2.5" (2 dedans, 1 dehors), http://store.clemanis.com (RMT-CASE-S1)
164 - 12€HT, 152,4mm x 152,4mm, aucun espace pour le moindre disque 2.5", https://teklager.se/en/products/router-components/pc-engines-apu-enclosure
165 - Refroidissement : conductive cooling from the CPU to the enclosure
166 - Conception : Suisse
167 - Fabrication : Taïwan
168
169 ##### Mémoire (RAM)
170 4GB de RAM ce n’est pas énorme, c'est trop peu pour une machine de dév (surtout si elle n'est pas dédiée) ou de build, mais pour un serveur hébergeant des services de base c'est pas mal. D’un point de vue sécurité, il me semble d'ailleurs préférable d'avoir plusieurs petites machines physiques distinctes qu’une grosse machine blindée hébergeant des machines virtuelles. Machines blindées qu'on ne trouvera d'ailleurs **probablement** pas de si tôt en matériel ouvert.
171 La RAM a de l’ECC (Error Correcton Code), supportée depuis peu dans le firmware de l’APU2.
172 La RAM est soudée donc il faudra malheureusement changer toute la carte mère si elle vient à avoir des défaillances (testables en 2 heures avec Memtest86++).
173 Le micrologiciel d’usine permet de faire un Memtest86+. Au préalable il faut installer deux dissipateurs de chaleur et la carte-mère dans le chassis, pour refroidir comme il faut le CPU. Dans une salle à vivre, la température affichée par Memtest86+ ne dépasse pas 52°C.
174
175 4Go de RAM permet de rester en 32 bits, mais ZFS recommande 64 bits : https://github.com/zfsonlinux/zfs/wiki/FAQ#32-bit-vs-64-bit-systems
176 Il faudra faire attention à bien configurer ZFS pour qu'il ne consomme qu'une part contrôlée de la RAM. Il est fort probable qu'activer de la déduplication ZFS soit trop gourmande en RAM : https://wiki.freebsd.org/ZFSTuningGuide#Deduplication
177
178 ##### Stockage
179 Il est possible de mettre facilement deux disques SSD avec un APU2 dans la RMT-CASE-S1 : un sur le port mSATA et un sur le port SATA. Le port d'alimentation à 2 broches est un peu atypique et peut poser des problèmes (mauvaise connexion sur un modèle reçu par Franciliens). Globalement, le format de port mSATA est entrain d'être remplacé par le port M.2, ce qui pose la question de pouvoir trouver de bons SSD mSATA dans un futur proche, mais Clemanis vend un adaptateur mSATA-SATA laissant toujours la possibilité de n’utiliser que des disques SATA. Il est aussi possible de mettre une extension PCIe pour rajouter 4 ports SATA : https://pcengines.ch/howto.htm#add_on_cards
180 Il est également possible de mettre une carte SD, mais les cartes SD tendent à mourrir plus vite et sont plus lentes.
181
182 ##### Réseau
183 PCEngines note que :
184 > The throughput depends very much on the OS, Linux based distributions perform much better than BSD based. Under Linux forwarding packets without filtering etc. a throughput of about 900-950Mbps can be achieved. Under BSD based OS, like pfSense, OPNSense, etc the max. throughput is about 600-650Mbps.
185
186 Quelques commentaires signalent que l’APU2 sature à 45Mpbs avec OpenVPN en AES, OpenVPN ne pouvant utiliser qu'un seul coeur de CPU (single thread). L'APU2 aurait une horloge CPU trop lente et un cache L2 trop petit. Mais ici le VPN n'est pas un objectif.
187 - https://www.reddit.com/r/PFSENSE/comments/4nmuu4/my_pc_engines_apu2c4_experience/
188
189 ##### Maintenance
190 La présence d’un port série permet un accès de maintenance plus simple et plus sécurisé que de l’IPMI (qui est un second OS en parallèle).
191 Mais il faut que l’hébergement propose un accès secondaire via un port série, ce qui n’est plus usuel.
192
193 Câbles utiles :
194 - USB to serial port
195 - 17€HT, https://www.ldlc.com/fiche/PB00026389.html
196 - 11€HT, https://teklager.se/en/products/router-components/serial-to-usb-cable
197 - 20€HT, http://store.clemanis.com/en/cables/566-kit-usb-to-serial-db9-female-for-alix-apu-3700667301720.html
198 - null-modem "DB9" serial cable, 5€HT, https://www.ldlc.com/fiche/PB00170050.html
199
200 Pour se connecter :
201 > picocom -b 115200 -f h /dev/ttyUSB0
202
203 ##### Enclosure
204 Il existe de nombreuses enclosures, mais essentiellement deux modèles.
205 Les noires dissipent mieux la chaleur : https://openwrt.org/toh/pcengines/apu2
206 La RMT-CASE-S1 de Clemanis (pour APU2 ou APU3 seulement !) est 15€ plus chère que d’autres enclosures plus petites, mais permet de stocker deux disques 2.5" dans l'enclosure et un sur le dessus pour un total de 4 disques avec le mSATA, ou de mettre une extension : http://store.clemanis.com/en/cases/324-pc-engines-alix-2d22d32d13-apu1apu2-case-with-hdd-wifi-black-3700667301379.html
207
208 ### Stockage
209 #### SSD (Solid State Disk)
210 ##### Fiabilité
211 Bien que rendant le Gio plus cher à l'achat, utiliser du disque à état solide (SSD) est plus fiable, plus rapide et consomme moins que du disque mécanique : https://arstechnica.com/gadgets/2014/06/consumer-grade-ssds-actually-last-a-hell-of-a-long-time/
212 Tellement fiable qu'il ne semble pas raisonnable de répliquer en temps réel le disque mais juste de sauvegarder régulièrement ailleurs (zfs send) le disque. La réplication apporterait tout de même une tranquilité d'esprit importante. Surtout que les SSD pour particuliers n’ont généralement pas de condensateur interne contre les coupures de courant : https://insights.samsung.com/2016/03/22/power-loss-protection-how-ssds-are-protecting-data-integrity-white-paper/
213
214 Les SSD sont plus performant que les HDD en terme d'IOPS (Input/Output Per Second).
215
216 ##### Capacité
217 Les SSD sont moins performant que les HDD en terme d'octet par euro.
218
219 ##### Vitesse
220 Les SSD sont plus performant que les HDD en terme d'IOPS (Input/Output Per Second) par euro, non seulement sur des accès séquentiels mais surtout sur des accès aléatoires.
221 Les petits SSD ont une vitesse d'écriture plus lente que les gros SSD, dans la mesure où il y a plus de puces pour paralléliser les écritures (mais cela ne marche que pour des opérations parallélisables, cela ne s'applique à priori pas quand on a un seul processus) : https://www.tweaktown.com/reviews/5993/samsung-840-evo-128gb-msata-ssd-review/index.html
222 Ainsi un 128Go écrira séquentiellement à 320Mo/s (Kingston) ou 410Mo/s (Samsung). Mais un 250Go écrira séquentiellement à 500Mo/s (Kingston) ou 520Go/s (Samsung).
223 En outre, côté ordinateur tous les connecteurs SATA ne sont pas créés égaux, le concepteur de la carte-mère peut mettre des connecteurs bons marchés mais peu performants, auquel cas pouvoir rajouter une carte SATA peut améliorer la situation.
224
225 Pour benchmarker :
226 > dd if=/dev/zero of=/path/to/disk/tempfile bs=1M count=1024 conv=fdatasync,notrunc status=progress
227 > fio --name=seqread --rw=read --direct=1 --iodepth=32 --ioengine=libaio --bs=1M --numjobs=1 --size=10G --runtime=60 --group_reporting /path/to/disk/tempfile
228
229 ##### Endurance
230 Les fabricants de SSD annonce une espérance de vie en Terabytes Written (TBW) ou Drive Writes Per Day (DWPD).
231 Les disques fournissent des attributs SMART :
232 > smartctl -a /dev/sda
233
234 Après plus de 5 ans d’usage laptop relativement intensif, mon SSD Samsung 128G affiche encore 75% de santé.
235
236 ##### Cache
237 Réserver une partie du SSD pour le swap est utile, notamment pour faire des tmpfs.
238 Mettre dans ZFS semble le plus propre mais il existe encore un bug connu sévère qui le déconseille : https://github.com/zfsonlinux/zfs/issues/7734
239 Il ne servirait à rien de le mettre dans le RAID, il suffit juste de mettre le swap dans un LUKS dédié pour le chiffer (avec une nouvelle clé éphémère à chaque boot) et d’ajouter les devices déchiffrés à la liste des swaps gérés par le noyau Linux.
240
241 Benchmark :
242 > stress --vm 10 --vm-keep --vm-bytes 512M
243
244 Configuration du noyau Linux :
245 > vm.swappiness = 10
246
247 ##### Secteurs
248 Si un SSD 4KB est utilisé pour le boot, un coreboot supportant UEFI devra être installé car GRUB ne supportera BIOS pour les disques 4KB : http://savannah.gnu.org/bugs/?46700
249 La taille physique des secteurs est donnée par fdisk -l ou /sys/block/sd*/queue/physical_block_size
250
251 ##### Modèles
252 - https://www.fnac.com/mp37714266/Transcend-ts128gmsa230s-ssd-interne-msata-iii-128-go-sata-iii-6-gbps-3d-tlc/w-4
253 - https://www.ldlc.com/fiche/PB00253086.html
254
255 #### ZFS
256 Bien que je n’ai aucune expérience avec (ZFS n’est pas exotique, mais n’est pas non plus le défaut sous Debian), je choisis d’utiliser ZFS plutôt que le stack RAID+LUKS+LVM+ext4+rsync que je connais bien, car il me semble que l'approche intégrée de ZFS permet une configuration moins complexe, plus granulaire, plus évolutive, tout aussi mature, plus fiable contre la corruption des disques, et plus sécurisée du point de vue des sauvegardes.
257 ZFS est mature mais requiert de l’attention et de l’expertise, dans le cas contraire cela peut amener à de mauvaises performances, voire à de la perte de données.
258 ZFS a une multitude de fonctionnalités qui questionne de premier abord par rapport à la philosophie Unix de faire une seule chose mais de le faire bien. Il y a surement de très bonnes raisons de gérer ces fonctionnalités de manière intégrée, en tout cas la granularité et flexibilité que cela permet sont très appréciables quand on ne sait pas trop comment nos besoins vont évoluer.
259 ZFS a été premièrement pensé pour protéger les données de corruptions, en considérant que les disques conspirent pour perdre les données.
260 ZFS bénéficierait du travail d’environ 77 personnes par an, ce qui donne l’impression d’un développement aussi éclaté qu’actif : https://www.percona.com/blog/2017/11/15/zfs-from-a-mysql-perspective/
261 ZFS aurait une taille de son code source équivalente à 10 fois celle d’EXT4, mais ZFS remplace aussi MD, LVM, dm-crypt, …
262 ZFS ne peut légalement pas être intégré directement au noyau Linux mais cela est bien géré par NixOS.
263
264 Quelques fonctionnalités / concepts de ZFS :
265 - CoW (copy-on-write) : consiste à ne pas écraser un enregistrement lorsqu'il y q besoin de le modifier, mais d'écrire un nouvel enregistrement, de changer des pointeurs et de laisser le ramasse-miette (garbage-collector) de ZFS libérer l’ancien si il n’est plus référencé. Cela permet de garantir la cohérence des données sur les disques, tout en supprimant le besoin d'un journal ou de faire des fsck.
266 - Pool storage (hot add disks) : pas besoin de décider à l'avanc de la taille de partitions ou de les redimensionner.
267 - ZIL (ZFS Intent Log) : cache d'écriture. Utile lorsqu'il y a beaucoup d’écriture synchrones ou pour servir des fichiers qui changent fréquemment.
268 - SLOG (Separate Intent Log) : ZIL séparé sur un autre disque (de préférence répliqué par RAID avec write-back, car le perdre serait dramatique), généralement de quelques Gio, rapide pour les écriture séquentielles et les fsync().
269 - ARC (Adjustable Replacement Cache)/ : cache MRU/LRU et MFU/LFU de ZFS sur la RAM. Utile pour servir des fichiers qui changent fréquemment. Cache ce qui a été le plus récemment utilisé (MRU) et le plus fréquemment utilisé (MFU).
270 - L2ARC (Level 2 ARC) : cache de lecture ZFS optionnel sur disque, de préférence SSD, qui stocke les données balayées de l’ARC. Un système avec moins de 8Gio de RAM n’a pas besoin de L2ARC, qui ne ferait que réduire les performances en imposant une pression sur l’ARC. jgreco : « Do not add L2ARC to an 8GB system. Period. Probably not to 16 either. Maybe at 24 or 32GB, but you have to remember that L2ARC stresses out the ARC and that you shouldn't exceed maybe a 4:1 ratio of L2ARC:ARC. »
271 - Quotas.
272 - Héritage des propriétés entre les datasets.
273 - Délégation fine des droits d'administration à des utilisateurs (zfs allow).
274 - Checksum : ZFS utilise des sommes de contrôle tout au long de l'arborescence des blocks de données à des endroits séparés des données (parent-block), et pas au niveau et à côté des données, ce qui permet non seulement de détecter les bits défectueux (bit-rot), mais également d'autres erreurs possibles : phantom writes, misdirected reads and writes, DMA parity errors, driver bugs, acccidental overwrites.
275 - Scrubing (self-healing) : si plus d’une copie (copies= strictement supérieur à 1) est disponible et qu’une des copie est détectée comme corrompue, ZFS retournera seulement la copie valide et réparera les enregistrement endommagés. Cela peut être déclenché manuellement avec la commande scrub.
276 - Send/Receive : ZFS permet d’envoyer et de recevoir entièrement ou incrémentalement des captures instantannées (snapshots) vers d’autres machines.
277 - Réplication : mirror, raidz-1, raidz-2, raidz-3, raidz-N où N est le nombre de disques qui peuvent cesser de fonctionner sans que cela n'impacte le système, c'est équivalent aux RAID1, RAID5, RAID6, …. L’équivalent de la reconstruction du RAID s’appelle ici « resilvering », mais celle-ci ne s'applique que sur l'espace utilisé du disque et non sur tout le disque, ce qui permet un temps de reconstruction proportionnel à l'usage et non à la capacité, ce qui stresse moins les disques, et les admins.
278 - Déduplication : ZFS peut découvrir que des fichiers ou enregistrements sont similaires et éviter leur duplication, mais cela demande beaucoup de RAM.
279 - Instantanés/Clones : ZFS permet de prendre à très peu de frais des snapshots, tout comme Git permet de faire des branches. Ces snapshots sont plus rapide en activant le prefetch scan. Un clone permet de faire un dataset modifiable à partir d'un snapshot.
280 - Compression : ZFS permet de compresser les données selon divers algorithmes (LZ4 usuel, GZIP recommandé parfois par exemple sur les données séquentielles comme des logs, ou certaines bases de données), cette compression est généralement considérée comme un gain de performances et d’espace, surtout quand le temps que cette (dé)compression prend au CPU est moindre que le temps d’accès au disque.
281 - Chiffrement : ZFS permet (en version officielle depuis seulement mai 2019) de chiffrer et authentifier les données, ce qui permet notamment :
282 - la compression (contrairement à ecryptfs).
283 - de faire des sauvegardes de dossiers spécifiques sans déchiffrer les données.
284 - de faire du chiffrement de bout en bout (end-to-end) avec (zfs send).
285 D’après man zfs, sont chiffrées : zvol data, file attributes, ACLs, permission bits, directory listings, FUID mappings, and userused / groupused data.
286 Ne sont pas chiffrées : metadata related to the pool structure, including dataset and snapshot names, dataset hierarchy, properties, file size, file holes, and deduplication tables.
287 Le chiffrement peut être activé en cours de route, mais ne concernera que les données qui seront écrite par la suite.
288 Il est important d’avoir un support des instruction AES-NI, qui en plus d’améliorer le SSH, le VPN, le HTTPS, améliore le chiffrement du stockage lorsque de l'AES est utilisé.
289
290 ##### Ressources
291 - https://wiki.debian.org/ZFS
292 - https://github.com/zfsonlinux/zfs/wiki/Debian-Buster-Root-on-ZFS
293 - https://wiki.archlinux.org/index.php/ZFS
294 - https://nixos.wiki/wiki/NixOS_on_ZFS
295 - https://wiki.freebsd.org/ZFSTuningGuide
296
297 #### RAID (Redundant Array of Inexpensive Disks)
298 La réplication entre deux disques ou plus que permet de se prémunir contre la défaillance matérielle d'un des deux disques. Le coût à payer est d’acheter un deuxième disque (pas forcément d'emblée) et de supporter un temps de lecture qui peut aller jusqu'à la somme de celui de chaque disque, et un temps d'écriture qui égal à celui du disque le plus lent.
299 RAID est une solution de réplication matérielle ou logicielle bien établie.
300 RAID permet d’appliquer la réplication en dessous du chiffrement LUKS, alors que la réplication ZFS intervient en dessus du chiffrement LUKS, causant un chiffrement par disque de toute écriture. Toutefois, l’APU2 ayant un coprocesseur pour les AES-NI, en utilisant --cipher aes-xts-plain64 pour LUKS ces chiffrements supplémentaires n’auraient probablement pas d’un impact significatif sur les performances justifiant d’abandonner la flexibilité de ZFS.
301
302 Le RAID logiciel peut être contrôlé par mdadm ou LVM (--type=raid), le backend mdraid est le même mais ce n'est pas compatible, mdadm est plus établi et abouti que LVM.
303
304 Si cette pénalité devient trop importante, un RAID5 (ou raidz) pourra être envisagé : https://serverfault.com/questions/830708/raid-1-to-raid-5-using-mdadm .
305 Voire plutôt RAID6 qui n'a pas qu'un seul disque de parité, car le remplacement d'un disque est facteur de défaillance des autres disques.
306 RAID (surtout RAID-5) a des problèmes lors de l’écriture : http://www.raid-recovery-guide.com/raid5-write-hole.aspx . Cependant comme les disques sont des SSD et non des HDD, en arriver là semble très improbable vu l'usage actuellement souhaité, une surveillance de l’usure des disques et des sauvegardes régulières peuvent suffire.
307
308 #### LUKS (Linux Unified Key Setup)
309 dm-crypt avec entêtes LUKS permet un chiffrement au niveau des block devices, et non seulement au niveau du contenu ou des métadonnées des fichiers comme ZFS ou ecryptfs.
310
311 LUKS sera utile pour chiffrer le swap (qui ne peut pas encore être mis dans ZFS de manière fiable), et éventuellement le chiffrement complet du disque (c’est-à-dire de l’initrd et du kernel, mais pas du firmware ou du bootloader), auquel cas il faudra utiliser un LUKS1 (et pas LUKS2) tant qu’une version stable de GRUB ne supportera pas LUKS2.
312
313 Pour benchmarker LUKS : https://unix.stackexchange.com/questions/254017/how-to-interpret-cryptsetup-benchmark-results
314 > cryptsetup benchmark
315
316 Pour de l’AES-128 cela donne :
317 > cryptsetup luksFormat --iter-time 2s --hash sha256 --cipher aes-xts-plain64 --keysize 256 /dev/sdX
318 XTS est recommandé pour chiffrer des block devices, à noter toutefois qu’XTS sépare la clé en deux, ce qui nécessite de doubler --keysize.
319
320 #### ecryptfs
321 Le chiffrement par ecryptfs ne permet ni compression, ni déduplication et rajoute des métadonnées en entête, ce qui prend de la place.
322
323 #### LVM (Linux Volume Manager)
324
325
326 # Actions
327
328 ## Machine
329 L'APU2 est la machine x86_64 (donc bien supportée par NixOS et GHC) basse conso, la plus ouverte (ce qui est bien dans l'esprit de Sourcephile), et elle devrait permettre d'assurer le plus important dans un premier temps.
330
331 - https://www.fsf.org/resources/hw
332 - https://wiki.debian.org/FreedomBox/Hardware
333 - https://nixos.wiki/wiki/NixOS_on_ARM
334
335 ## Réseau
336 Un essai d’hébergement est expérimenté chez PTT, qui est à côté de chez julm.
337
338 ## Stockage
339 Le stockage assure ici :
340 - du cache (LUKS+swap)
341 - du chiffrement (ZFS encryption)
342 - de la réversibilité (ZFS snapshots)
343 - de la sauvegarde (ZFS snapshots et zfs send)
344 - et de la base de données (ZFS customisé).
345
346 Le stockage n’assure pas ici :
347 - de la réplication (ZFS mirror)
348 - de la déduplication (ZFS dedup)
349
350 Puisqu’il s’agit d’un SSD, de données qui seront sauvegardées et de services qui pourront supporter une coupure de quelques jours, il n’y a pas de réplication en temps-réel, mais il faudra avoir un SSD de dépannage et réformer celui en production lorsqu’il sera descendu à 50% de santé.
351
352 Réemploi d’un Samsung 840 EVO (mieux que QVO) de 250GB, sans condensateur interne, que je possède mais n’ai que très peu utilisé jusque là (janvier 2020) :
353 > % smartctl-tbw /dev/disk/by-id/ata-Samsung_SSD_840_EVO_250GB_S1DBNSAF340110R
354 > /dev/disk/by-id/ata-Samsung_SSD_840_EVO_250GB_S1DBNSAF340110R Power_On_Hours 1437 hours / 59 days / 0.16 years
355 > /dev/disk/by-id/ata-Samsung_SSD_840_EVO_250GB_S1DBNSAF340110R Wear_Leveling_Count 99 (% health)
356 > /dev/disk/by-id/ata-Samsung_SSD_840_EVO_250GB_S1DBNSAF340110R Airflow_Temperature_Cel 24
357 > /dev/disk/by-id/ata-Samsung_SSD_840_EVO_250GB_S1DBNSAF340110R Total_LBAs_Written 685441898 / 334688 mb / 326.8 gb / 0.319 tb
358 > /dev/disk/by-id/ata-Samsung_SSD_840_EVO_250GB_S1DBNSAF340110R mean writes per hour: 232.91
359
360 > % fdisk -l /dev/disk/by-id/ata-Samsung_SSD_840_EVO_250GB_S1DBNSAF340110R
361 > Disk /dev/disk/by-id/ata-Samsung_SSD_840_EVO_250GB_S1DBNSAF340110R: 232.9 GiB, 250059350016 bytes, 488397168 sectors
362 > Disk model: 2235
363 > Units: sectors of 1 * 512 = 512 bytes
364 > Sector size (logical/physical): 512 bytes / 512 bytes
365 > I/O size (minimum/optimal): 512 bytes / 33553920 bytes
366 > Disklabel type: gpt
367 > Disk identifier: E42083E9-58B2-4CD0-B716-2B923C6B8007
368
369 ### Partitionnement
370
371 - /dev/sd{a,b}1 500Mio boot
372 - /dev/sd{a,b}2 4Gio luks-swap
373 - /dev/sd{a,b}4 200Gio luks-zfs
374
375 > lsblk
376 > [TODO]
377
378 La table de partition est au format GPT, qui se retrouve de plus en plus dans les tutos que MSDOS, tout en étant bien supporté par les outils.
379 Les UUID sont randomisées (avec ˋsgdisk -Gˋ) et distincts d'un disque à l'autre.
380
381 Il ne semble pas nécessaire de faire une partition de secours (rescue), une clé USB, un accès par port série ou un busybox sur /boot devrait suffire.
382 La partition /tmp sera un tmpfs utilisant la RAM et les 4 à 8G de swap.
383 Les logs sont sur un dataset séparé pour garantir fortement qu'elle ne remplira pas celle des données, et pour que déchiffrer les logs, n'implique pas de déchiffrer les données.
384
385 ### Chiffrement
386 AES-128 est ici considéré comme suffisamment sécurisant vu le niveau de menace et de sécurité physique.
387 https://xkcd.com/538/
388
389 ## Travaux futurs
390 ### Machine de sauvegardes
391 Il est important de bien mettre en place une sauvegarde automatique, d’autant plus qu’il n’y a pas de réplication en temps-réelle mise en place sur un second disque.
392 ZFS (zfs send) devrait faciliter cette sauvegarde, en produisant notamment des sauvegardes directement lisibles/vérifiables, sans avoir besoin de restaurer la dernière version, juste de la déchiffrer.
393
394 D’autres outils sont pour l’instant écartés :
395 - duplicity : sauvegardes incrémentales requérant un snapshot complet et une liste de différences jusque là.
396 - BorgBackup : déduplication.
397
398 ### Machine de compilations
399 Il faut préalablement voir les performances que permet cette première machine, qui même si elles ne sont pas remarquables, peuvent suffire dans un premier temps.
400
401 - http://wiki.ant-computing.com/Choosing_a_processor_for_a_build_farm
402 > The intel Core as found in the Core i5 is performing very well, but hyperthreading brings little benefit here (13%). Thus a CPU should be chosen with real cores
403 > [...]
404 > In this test, the AMD was the fastest of all systems, and the ARM was the fastest fanless system and also the one delivering the highest throughput per cubic centimeter.
405 > [...]
406 > Some tests run with the ramlat utility showed that the build time almost solely depends on the L1 cache speed, then a little bit on the L2 cache speed and then finally on the DRAM speed. It does not exactly depend on the memory bandwidth but rather latency.
407
408
409 # Critiques
410 ## Inconvénients
411 ### Vulnérabilités Metldown et Spectre
412 Problème : l’AMD GX-412TC de l’APU2 est vulnérable à Meltdown et Spectre. L’atténuation n’est que partielle : https://blog.3mdeb.com/2019/2019-05-29-spectre-and-meltdown-on-apu2/
413
414 Réponse : tous les CPU Intel ou AMD sont plus ou moins affectés par ces vulnérabilités.
415
416 ### L'APU2 n'a pas une alimentation redondée
417 Problème : l'alimentation est l'un des composants les plus susceptibles de ne plus fonctionner.
418
419 Réponse : entreposer une seconde alimentation à côté du serveur, de sorte à minimiser le temps de hors-service et que cela puisse éventuellement être fait par l'hébergeur.
420
421 ### L'APU2 n'est pas adapté à la virtualisation
422 Problème : pour faire de la virtualisation il est préférable d'avoir des CPU avec des instructions adaptées (VT) et de la RAM en quantité (~512Mio/VM).
423
424 Réponse : la virtualisation est surtout adaptée lorsque ce ne sont pas les mêmes personnes qui gèrent les services, ou lorsqu'il faut faire tourner des OS différents. Mais dans le cas présent ce n'est pas le cas, donc des containers type LXC devraient suffire du point de vue d'une compartimentation sécuritaire.
425
426 ### PTT ne propose pas d’accès secondaire par port série
427 Problème : l’APU2 n’a pas d’IPMI, seulement un port série, cependant PTT n'a pas de switch de ports série ou USB pour le moment, et ne sait pas trop comment gérer les accès d’un tel switch. Cet accès secondaire est important pour espérer pouvoir redémarrer l’APU2 à distance. Cependant seul une coupure de l’alimentation permet un redémarrage propre (cold-boot).
428
429 Réponse : il faudrait probablement étudier et proposer nous même un switch permettant cela.
430
431 ### nsd4 et iodined nécessitent tous deux le port 53
432 Problème : normalement nsd4 et iodined sont incompatibles sur une seule et même IPv4 (à 3€/mois ici), car ils requièrent tous deux l’écoute sur le port 53 du DNS.
433
434 Réponse : ce n’est pas très propre, mais il est possible de mutualiser ce port avec une règle iptables du genre : `-A nat -p udp --dport 53 -m string --algo kmp --from 40 --hex-string |01|i|0b|sourcephile|02|fr|00| -j DNAT --to-destination :5353` où iodined écoute maintenant sur le port 5353.
435
436 ### ZFS n’est pas (trivialement) adapté aux bases de données
437 Problème : les bases de données ont des performances amoindries sous un ZFS qui n’est pas customisé pour.
438
439 Réponse : on utilise actuellement du SSD pour tout (donc pour le ZIL) donc ça devrait aller sans L2ARC, et il existe de la documentation pour customiser les options de ZFS. Il restera toujours possible de rajouter un SSD avec LUKS+EXT4 dédié aux bases de données si c’est vraiment trop problématique.
440
441 ### Le chiffrement de ZFS limite le nombre de copies à 2
442 Problème : même sans activer une réplication (mirror ou raidz), ZFS permet de garder plusieurs copies de chaque fichier, mais lorsque ces fichiers sont chiffrés ce nombre est actuellement limité à 2.
443
444 Réponse : c’est déjà pas mal.
445
446 ### ZFS requiert de l’espace de stockage libre
447 Problème : ZFS fonctionne par copy-on-write ce qui implique qu’écrire demande beaucoup plus d’espace libre que pour d’autres systèmes de fichiers.
448
449 Réponse : ZFS nécessite de veiller à la RAM et au stockage libre, il faut veiller à ce que ZFS ait toujours au moins 20% d’espace libre pour ne pas avoir de pertes de performances et éviter de taper toujours sur les mêmes secteurs du SSD, ce qui diminuerait sensiblement son espérance de vie.
450
451 ### ZFS et les bases de données
452 Problème : le copy-on-write de ZFS peut avoir un impact négatif très significatif sur les applications dont le cœur de métier est de modifier des fichiers en place, comme MySQL ou PostgreSQL : https://wiki.freebsd.org/ZFSTuningGuide#Application_Issues
453
454 Réponse : il y a des atténuations possible à tester, il semble raisonnable à ce stade de ne pas chercher une optimisation prématurée en allouant une partition EXT4 de taille arbitraire et en s’imposant tout ce que ça implique de configuration de RAID/LUKS/LVM alors que ZFS nous permet justement de nous en passer.
455
456 Ressources :
457 - https://www.percona.com/blog/2018/02/16/why-zfs-affects-mysql-performance/
458 - https://www.percona.com/resources/webinars/zfs-mysql
459 - https://www.percona.com/blog/2018/05/15/about-zfs-performance/
460
461 ## Question non-résolues
462
463 ## Alternatives
464
465 ### RAID+LUKS+LVM+ext4
466 La réplication peut être assurée par RAID (RAID1) au lieu de ZFS (mirror ou raidz).
467
468 Le chiffrement par dm-crypt+LUKS au-dessous de ZFS a pour désavantages d'impliquer que les copies/réplications de ZFS sont chiffrées plusieurs fois, et que les clés doivent toujours être en mémoire. Il est par contre pertinent de l’utiliser pour le swap compte tenu que ZFS a encore un bug ouvert concernant le swap dans ZFS : https://github.com/zfsonlinux/zfs/issues/7734
469
470 ### TLsense
471 - Processeur : Intel i3 | i5 | i7
472 - i7 : https://teklager.se/en/products/routers/tlsense-i7-4lan
473 - Mémoire : 8Go
474 - Réseau : 4x Gigabit Ethernet
475 - Conception : Suède
476 - Fabrication : ?
477
478 ### Helios4
479 - Infos : https://kobol.io/helios4/
480 - Prix : 177€
481 Open hardware mais ARM pas x86, et plus en vente pour le moment.
482
483 ### HPE ProLiant MicroServer
484 - Processeur : AMD Opteron X3416 (2x 1.6–3.0GHz) | X3421 (4x 2.1–3.4GHz)
485 - Mémoire : 1x 8Go (max 2x 16Go) DDR4-SDRAM (X3416: 1600Mhz | X3421: 2400MHz) Unbuffered ECC (non-soudées)
486 - Cache L2 : X3416: 1Mo | X3421: 12Mo
487 - Réseau : 2x Gigabit Ethernet
488 - Électricité : 12-35W
489 - Stockage : 4x SATA 3.5"
490 - Extensions : 2x PCIe 3.0
491 - Prix :
492 - X3416 : 328€HT https://www.senetic.fr/product/873830-421
493 - X3421 : 415€HT https://www.senetic.fr/product/P04923-421
494 - Conception : USA
495 - Fabrication : ?