]> Git — Sourcephile - sourcephile-txt.git/blob - ddc/ddc8-logiciellerie-une_infra.md
ddc8: ZFS
[sourcephile-txt.git] / ddc / ddc8-logiciellerie-une_infra.md
1 # Une première infrastructure informatique pour Sourcephile
2 - Demande de Critiques: 8
3 - De: Julien Moutinho (julm)
4 - À: Sourcephile
5 - Phase: Écriture
6 - Révision: 4 (2020-01-20)
7 - Licence: Creative Commons BY-SA
8
9 # Bilan approximatif
10 ## Mentions possibles
11 - R: « À rejeter »
12 - C: « À clarifier »
13 - A: « À améliorer »
14 - T: « À tester »
15 - G: « À garder »
16
17 ## Analyses des préoccupations
18 ### [G] Pour l’indépendance
19 #### [G] Concernant les charges
20 - [G] julm: on est sur une dépense de ~300€ de matériel (~100€ de plus s’il n’y avait pas le réemploi d’un SSD) pour une espérance de fonctionnement et d’usage >5ans, et un récurrent de ~60€/an pour l’hébergement. C’est un prix très correct pour ce que c’est.
21 #### [T] Concernant l’autonomie
22 - [T] julm: on a la main sur le matériel, le logiciel, mais par tellement sur l’hébergement (toutefois 15km, ça reste à portée de vélo).
23 #### [C] Concernant les produits
24 - [C] julm: aucun service non-lié à la production n’est proposé aux membres.
25 ### [T] Pour la science
26 - [T] julm: on peut mettre du NixOS, mais ce n’est pas une machine avec beaucoup de CPU et de RAM, mais ça devrait largement suffire et me dépanner tant que je n’ai pas d’élec @home.
27 ### [T] Pour la production
28 - [T] julm: la machine peut suffire pour commencer, l’hébergement aussi mais peut rapidement être limitant (ce n’est qu’une VDSL2+). Côté sécurité on est en open-source, mais que partiellement en matériel ouvert. Mutualiser pleins de services sur une seule machine n’est pas l'idéal mais un cloisonnement LXC (sans virtualisation) devrait suffire puisque tous les services seront sous GNU/Linux et contrôlés par nous. L’hébergement est semi-professionnel, sécurité raisonnable vue les enjeux. Côté maintenance on peut mettre du NixOS ce qui me simplifiera la tâche. L’hébergeur n’offre pas (encore) de seconde connexion via le port série et n'est que semi-professionnel, par contre il est proche.
29 ### [A] Pour l’essaimage
30 - [A] julm: on est en logiciel libre, mais que partiellement en matériel ouvert. Deux raisons bloquantes à cela : le manque de support de NixOS (quid de Guix ?) et plus gravement de Haskell pour les architectures ARM.
31 ### [A] Pour la coopération
32 - [A] julm: les machines sont fabriquées à l'autre bout de la planète dans des conditions sociales probablement déplorables.
33 ### [A] Pour l’environnement
34 - [A] julm: c’est une machine très basse consommation, mais c’est quand même une consommation.
35
36
37 # Explications
38
39 ## Motivations
40 ### S'émanciper d'autogeree.net
41 Les logiciels que j'écris sont actuellement hébergés sur `chomsky.autogeree.net`, une machine virtuelle (VM) relativement modeste que me fournie Grésille depuis 2011 (en contre-partie d'un Dell R210 surnommé « chomsky » et acquis dans l'enthousiasme naïf de l'essaimage de FDN, puis resurnommé « rouf » par Grenode). Cette VM m'a longtemps servi de bac à sable pour jouer à l'adminsys, et sert encore à un copain et moi-même pour avoir du mél et de l'IRC.
42
43 `chomsky` est une Debian dans une machine virtuelle Xen (1 CPU, 750Mo de RAM, 50Go de stockage HDD), dans une machine hébergée professionnellement en datacenter à Grenoble. Cette machine est actuellement reliée à l'Internet par une autre infrastructure de Grenode à Lyon (au Netcenter via l'association Rézopole).
44 `chomsky` n’a pas vraiment les ressources d’une machine de développement (nixpkgs c’est déjà 10Go de stockage, stack 5Go, et le REPL de GHC ou de PureScript c’est minimum 0.5Go de RAM).
45
46 autogeree.net ne peut donc plus assurer mes besoins, et je n’arrive pas à convaincre qui que ce soit de porter avec moi une énième tentative d’association, nommée « Sourcephile », mais il me faut assurer la continuation du développement des logiciels libres qui me tiennent à cœur, et par conséquent je choisis d’entreprendre unilatéralement ce qu’il faut pour cela : `mermet.sourcephile.fr`, nommée d’après feu Laurent Mermet.
47
48 ### S'émanciper de Debian
49 Depuis que je me suis mis à NixOS, je ne suis plus enthousiasmé par Debian. En tant que dev il est bien plus facile de faire et de partager de manière reproductible et récente des paquets NixOS que des paquets Debian (dans le cas de paquets Haskell tout du moins). Et en tant qu'adminsys il est bien plus facile de maîtriser ce qu'il se passe sur une NixOS que sur une Debian. Le seul avantage de Debian en ce qui me concerne c'est sa plus grande portabilité sur des architectures basse conso ou OSHW comme certaines ARM ou MIPS (en fait non, mon Yeeloong de Lemote a été volontairement rendu inutilisable par Debian). Mais ce n'est **certainement** qu'un avantage temporaire.
50 Pour approfondir ces raisons techniques, on peut voir par exemple les tutoriels francophones de Nokomprendo : https://nokomprendo.gitlab.io/
51
52 Cependant, il est **peu probable** que je puisse passer `chomsky` sous NixOS, car mon copain n’envisage pas de se mettre à NixOS, et puis c'est une opération risquée demandant une intervention délicate sur une machine hébergeant actuellement des services en production (essentiellement nos méls persos en MX n°1).
53
54 ## Objectif
55 L’objectif principal est de continuer d’habiter sur Internet, en assurant ce qu’autogeree.net ne peut plus assurer ou n’a jamais véritablement assuré.
56
57 ### Objectif minimal : infra de publication
58 Cet objectif adresse en priorité les besoins de diffusion au public du travail des membres contributeurs : dépôts des sources, dépôts des binaires, pages Web d'informations. Le public n'y a que des accès en lecture seule.
59
60 - Noms de domaine (nsd4 | unbound | knot)
61 - Shell distant SSH (openssh)
62 - Pare-feu (shorewall)
63 - Forge logicielle (gitolite, gitweb, nginx)
64 - Dépôts binaires (cachix, apt)
65 - Site Web de rendu des journaux de bord (nginx)
66 - Site Web de rendu des demandes de critiques (nginx)
67 - Site Web de rendu des documentations (nginx)
68 - Certificats X.509 pour du HTTPS (certbot, nginx)
69 - Clés de signature et d'authentification dédiées OpenPGP (gnupg, openpgp2ssh)
70 - Authentifications secondaires dédiées (yubikey)
71 - Monitoring (monit | nagios | prometheus)
72
73 ### Objectif modeste : infra d'équipement interne
74 Cet objectif adresse en priorité les besoins d'équipement des membres contributeurs : stockages sécurisés et connexions sécurisées. Le public n'y a aucun accès d'usage, mais peut avoir des accès en écriture ou lecture selon des interfaces restreintes et contrôlées.
75
76 - Adresses méls (postfix, dovecot2, rspamd)
77 - Listes méls internes (aliases postfix)
78 - Écriture collaborative en ligne en temps réel (gobby | etherpad-lite | prose)
79 - Messagerie instantanée (prosody | matrix)
80 - Chiffrement du stockage (ZFS, dm-crypt, dropbear)
81 - Gestion des accès (unix | openldap | intégré aux applications)
82 - Partages volumineux en ligne (nextcloud)
83 - Partages textuels jetables (pastebin)
84 - (optionnel) Calendriers en ligne (davical | nextcloud)
85 - (optionnel) VPN DNS (iodined)
86 - (optionnel) VPN (wireguard)
87 - (optionnel) Audioconf (mumble)
88 - (optionnel) Visioconf (jitsi)
89 - (optionnel) Partages binaires jetables (coquelicot)
90
91 ### Objectif honorable : infra de contribution publique
92 Cet objectif adresse en priorité les besoins de communication en ligne entre les membres contributeurs et le public : sites Web de présentation et réseaux sociaux en ligne.
93 - Rapports de bugs (gitlab | gitea)
94 - Messagerie instantanée (salon IRC type #sourcephile@irc.geeknode.net | prosody interne | serveur Jabber externe)
95 - GitLab
96 - Site Web des (futures) démonstrations (judgmentphile, docphile, ledgerphile, relotophile)
97 - Listes méls publiques (discourse)
98 - Forums publics (discourse)
99
100 ### Objectif ambitieux : infra de mise en commun
101 Cette objectif adresse en priorité les besoins de la mise en commun en ligne.
102
103 - (optionnel) Microblogging (mastodon | serveur externe)
104
105 ### Objectif maximal : infra de services
106
107
108 ## Études
109 ### Hébergement
110 #### PTT
111 PTT est une association qui tient un (tiers-)lieu à Tarnac en Corrèze.
112 Il est possible d’y héberger de petites machines à basse consommation pour 2€/mois (plus 3€/IPv4) (plus une cotisation de 10€ + prix-libre), dans une salle dédiée aux serveurs.
113 Tarnac est au milieu du plateau de Millevaches, autrement dit en périphérie d’Internet.
114 Le réseau est une VDSL2 fournie par Ilico/Grenode/Ielo-Liazo/Orange, soit environ 40Mbps descendant et 12Mpbs montant (mais pour l'ensemble de l'hébergement !).
115
116 #### Tetaneutral
117 Tetaneutral est une association à but non-lucratif basée à Toulouse.
118 Tetaneutral est bien établie et active dans le portage de la cause de l’Internet libre.
119 Il est possible d’y héberger de petites machines à basse consommation pour 5€ à 10€ par mois, dans une salle du squat artistique Mix'art Myrys :
120 http://tetaneutral.net/adherer/
121 Le réseau est une fibre optique directement reliée à centre de données Cogent voisin :
122 https://tetaneutral.net/historique/
123
124
125 ### Machines
126 #### APU2 de PCengines
127 L’APU2 est un routeur conçu par une entreprise suisse (PCengines) et fabriqué à Taïwan. Le CPU est un AMD, dont l'architecture « x86_64 » est officiellement supportée par GHC, NixOS et ses caches binaires. Ce n'est pas complètement en matériel ouvert car certains composants clés comme le CPU ne le sont pas, mais PCengines publie ce qu'elle fait elle pour sa part (schémas et code source des modifications à Coreboot).
128
129 PCengines a une renommée et une maturité certaine dans la conception de machines (ce n'est pas leur première), il ne s'agit donc pas de produits issus d'une random startup d'amateur.rices, ou autres personnes davantage préoccupées par le time-to-market plutôt que par le long-time-support. L’APU2 est explicitement vanté, et ses composants choisis, pour assurer sa disponibilité sur le « long-terme ».
130
131 L’APU2 est généralement utilisé comme routeur, mais peut aussi servir de petit (en terme de services peu gourmands côté serveur) serveur, voire de petit (en taille de stockage) « NAS » (Network Attached Storage), voire de petite (en puissance de calculs) machine de développement pour dépanner.
132
133 L’APU a plusieurs versions : APU2, APU3 et APU4. L'APU2 est annoncé comme celui consommant le moins : 10W max contre 12W max pour l’APU3 et l’APU4, et la version 4Go de RAM de l'APU2 a une NIC i210AT légèrement meilleure que la i211AT des autres. L’APU3 est optimisé pour faire de la 3G/LTE. Et l’APU4 a un quatrième port Ethernet, mais ne rentre pas dans l’enclosure RMT-CASE-S1 permettant de mettre des disques supplémentaires.
134
135 Ressources :
136 - https://pcengines.ch/howto.htm
137 - https://openwrt.org/toh/pcengines/apu2
138 - https://www.cs.cmu.edu/~davide/howto/apu4c4.html
139 https://blog.linuxserver.io/2016/12/17/review-pcengines-apu2-c4-prebuilt-by-linitx/#vpnperformance
140 - https://teklager.se/en/knowledge-base/
141
142 ##### Caractéristiques
143 - Processeur : AMD G series GX-412TC (Turbo Core), 4x 1GHz Jaguar core with 64 bit support
144 - Specs :
145 - http://www.cpu-world.com/CPUs/Puma/AMD-G-Series%20GX-412TC.html
146 - http://support.amd.com/TechDocs/52740_16h_Models_30h-3Fh_BKDG.pdf
147 - 170€HT, http://store.clemanis.com (PCE-APU2E4)
148 - 148€HT, https://teklager.se/en/products/router-components/pc-engines-apu2d4
149 - 128€HT, https://www.wispmax.com/pc-engines-apu2b4-system-board.html
150 - Coprocesseur : AMD CCP avec AES-NI
151 - https://openwrt.org/toh/pcengines/apu2#cryptographic_hardware
152 - Cache L1 : 32K data cache + 32K instruction cache per core
153 - Cache L2 : 2MB shared
154 - Mémoire : 1x 4Go DDR3-DRAM 1333Mhz ECC (soudée !)
155 - Stockage : Boot from SD card (built-in adapter, connected through USB), USB or m-SATA SSD. 1 SATA data + power connector
156 - Électricité : 12V DC. About 6 to 10W depending on CPU load. Recommend for at least 1.5A to provide margin for peripherals
157 - Extensions : 2 miniPCI express (one with SIM socket for 3G modem), LPC bus, GPIO header, optional I2C bus, COM2 (3.3V RXD/TXD)
158 - Réseau : 3x Gigabit Ethernet (Intel i210AT), 1 DB9 serial port (console)
159 - https://www.intel.com/content/dam/www/public/us/en/documents/faqs/ethernet-controller-i210-i211-faq.pdf
160 - the i210AT is better, as it has 4 transmit and 4 receive queues, where the i211AT only has 2/2
161 - Firmware : CoreBoot (build 20170228) open source system BIOS with support for iPXE and USB boot
162 - Enclosure :
163 - 35€HT, 245mm x 157mm x 39mm, espace pour 3 disques 2.5" (2 dedans, 1 dehors), http://store.clemanis.com (RMT-CASE-S1)
164 - 12€HT, 152,4mm x 152,4mm, aucun espace pour le moindre disque 2.5", https://teklager.se/en/products/router-components/pc-engines-apu-enclosure
165 - Refroidissement : conductive cooling from the CPU to the enclosure
166 - Conception : Suisse
167 - Fabrication : Taïwan
168
169 ##### Mémoire (RAM)
170 4GB de RAM ce n’est pas énorme, c'est trop peu pour une machine de dév (surtout si elle n'est pas dédiée) ou de build, mais pour un serveur hébergeant des services de base c'est pas mal. D’un point de vue sécurité, il me semble d'ailleurs préférable d'avoir plusieurs petites machines physiques distinctes qu’une grosse machine blindée hébergeant des machines virtuelles. Machines blindées qu'on ne trouvera d'ailleurs **probablement** pas de si tôt en matériel ouvert.
171 La RAM a de l’ECC (Error Correcton Code), supportée depuis peu dans le firmware de l’APU2.
172 La RAM est soudée donc il faudra malheureusement changer toute la carte mère si elle vient à avoir des défaillances (testables en 2 heures avec Memtest86++).
173
174 Le micrologiciel d’usine permet de faire un Memtest86+. Au préalable il faut installer deux dissipateurs de chaleur et la carte-mère dans le chassis, pour refroidir comme il faut le CPU. Dans une salle à vivre, la température affichée par Memtest86+ ne dépasse pas 52°C.
175
176 ZFS serait lent avec 2GiB de RAM, 4GiB sont recommandés pour des performances normales pour des tâches courantes : https://github.com/zfsonlinux/zfs/wiki/Debian-Buster-Root-on-ZFS
177
178 4Go de RAM permet de rester en 32 bits, mais ZFS recommande 64 bits : https://github.com/zfsonlinux/zfs/wiki/FAQ#32-bit-vs-64-bit-systems
179 Il faudra faire attention à bien configurer ZFS pour qu'il ne consomme qu'une part contrôlée de la RAM. Il est fort probable qu'activer de la déduplication ZFS soit trop gourmande en RAM : https://wiki.freebsd.org/ZFSTuningGuide#Deduplication
180
181 La mise-à-jour du micrologiciel peut se faire à distance avec quelque chose du genre :
182 > git clone https://github.com/3mdeb/3mdeb-secpack
183 > gpg --import 3mdeb-secpack/**/*.asc
184 > gpg --verify canaries/pcengines/canary-002-2019.txt{.sig.piotr-krol,}
185 > gpg --verify canaries/pcengines/canary-002-2019.txt{.sig.miczyg,}
186 > wget -c https://3mdeb.com/open-source-firmware/pcengines/apu2/apu2_v4.11.0.2{.rom,.SHA256{,.sig}}
187 > gpg --recv-keys 0x3B710228A4774C4FCB315876233D0487B3A7A83C
188 > gpg --verify apu2_v4.11.0.2.SHA256{.sig,}
189 > sha256sum --check apu2_v4.11.0.2.SHA256
190 > flashrom -w apu2_v4.11.0.2.rom -p internal
191 > setpci -s 18.0 6c.L=10:10 # Force cold reboot
192 > reboot
193
194 ##### Stockage
195 Il est possible de mettre facilement deux disques SSD avec un APU2 dans la RMT-CASE-S1 : un sur le port mSATA et un sur le port SATA. Les vis tenant les disques sont pénibles à mettre et peuvent tordre le chassis si trop serrés. Le port d'alimentation à 2 broches est un peu atypique et peut poser des problèmes (mauvaise connexion sur un modèle reçu par Franciliens). Globalement, le format de port mSATA est entrain d'être remplacé par le port M.2, ce qui pose la question de pouvoir trouver de bons SSD mSATA dans un futur proche, mais Clemanis vend un adaptateur mSATA-SATA laissant toujours la possibilité de n’utiliser que des disques SATA. Il est aussi possible de mettre une extension PCIe pour rajouter 4 ports SATA : https://pcengines.ch/howto.htm#add_on_cards
196 Il est également possible de mettre une carte SD, mais les cartes SD tendent à mourrir plus vite et sont plus lentes.
197
198 ##### Réseau
199 PCEngines note que :
200 > The throughput depends very much on the OS, Linux based distributions perform much better than BSD based. Under Linux forwarding packets without filtering etc. a throughput of about 900-950Mbps can be achieved. Under BSD based OS, like pfSense, OPNSense, etc the max. throughput is about 600-650Mbps.
201
202 Quelques commentaires signalent que l’APU2 sature à 45Mpbs avec OpenVPN en AES, OpenVPN ne pouvant utiliser qu'un seul coeur de CPU (single thread). L'APU2 aurait une horloge CPU trop lente et un cache L2 trop petit. Mais ici le VPN n'est pas un objectif.
203 - https://www.reddit.com/r/PFSENSE/comments/4nmuu4/my_pc_engines_apu2c4_experience/
204
205 ##### Maintenance
206 La présence d’un port série permet un accès de maintenance plus simple et plus sécurisé que de l’IPMI (qui est un second OS en parallèle).
207 Mais il faut que l’hébergement propose un accès secondaire via un port série, ce qui n’est plus usuel.
208
209 Câbles utiles :
210 - USB to serial port
211 - 17€HT, https://www.ldlc.com/fiche/PB00026389.html
212 - 11€HT, https://teklager.se/en/products/router-components/serial-to-usb-cable
213 - 20€HT, http://store.clemanis.com/en/cables/566-kit-usb-to-serial-db9-female-for-alix-apu-3700667301720.html
214 - null-modem "DB9" serial cable, 5€HT, https://www.ldlc.com/fiche/PB00170050.html
215
216 Pour se connecter :
217 > picocom -b 115200 -f h /dev/ttyUSB0
218
219 ##### Enclosure
220 Il existe de nombreuses enclosures, mais essentiellement deux modèles.
221 Les noires dissipent mieux la chaleur : https://openwrt.org/toh/pcengines/apu2
222 La RMT-CASE-S1 de Clemanis (pour APU2 ou APU3 seulement !) est 15€ plus chère que d’autres enclosures plus petites, mais permet de stocker deux disques 2.5" dans l'enclosure et un sur le dessus pour un total de 4 disques avec le mSATA, ou de mettre une extension : http://store.clemanis.com/en/cases/324-pc-engines-alix-2d22d32d13-apu1apu2-case-with-hdd-wifi-black-3700667301379.html
223
224 ### Stockage
225 #### SSD (Solid State Disk)
226 ##### Fiabilité
227 Bien que rendant le Gio plus cher à l'achat, utiliser du disque à état solide (SSD) est plus fiable, plus rapide et consomme moins que du disque mécanique : https://arstechnica.com/gadgets/2014/06/consumer-grade-ssds-actually-last-a-hell-of-a-long-time/
228 Tellement fiable qu'il ne semble pas raisonnable de répliquer en temps réel le disque mais juste de sauvegarder régulièrement ailleurs (zfs send) le disque. La réplication apporterait tout de même une tranquilité d'esprit importante. Surtout que les SSD pour particuliers n’ont généralement pas de condensateur interne contre les coupures de courant : https://insights.samsung.com/2016/03/22/power-loss-protection-how-ssds-are-protecting-data-integrity-white-paper/
229
230 ##### Capacité
231 Les SSD sont moins performant que les HDD en terme d'octet par euro.
232
233 ##### Vitesse
234 Les SSD sont bien plus rapide que les HDD.
235 Les SSD sont plus performant que les HDD en terme d'IOPS (Input/Output Per Second) par euro, non seulement sur des accès séquentiels mais surtout sur des accès aléatoires.
236 Les petits SSD ont une vitesse d'écriture plus lente que les gros SSD, dans la mesure où il y a plus de puces pour paralléliser les écritures (mais cela ne marche que pour des opérations parallélisables, cela ne s'applique à priori pas quand on a un seul processus) : https://www.tweaktown.com/reviews/5993/samsung-840-evo-128gb-msata-ssd-review/index.html
237 Ainsi un 128Go écrira séquentiellement à 320Mo/s (Kingston) ou 410Mo/s (Samsung). Mais un 250Go écrira séquentiellement à 500Mo/s (Kingston) ou 520Mo/s (Samsung).
238 En outre, côté ordinateur tous les connecteurs SATA ne sont pas créés égaux, le concepteur de la carte-mère peut mettre des connecteurs bons marchés mais peu performants, auquel cas pouvoir rajouter une carte SATA peut améliorer la situation.
239 Avec du SSD, de surcroît avec ZFS qui a son propre ordonnanceur, il est recommandé de mettre queue/scheduler=none.
240
241 Pour benchmarker :
242 > dd if=/dev/zero of=/path/to/disk/tempfile bs=1M count=1024 conv=fdatasync,notrunc status=progress
243 > fio --rw=write --direct=1 --iodepth=32 --ioengine=libaio --bs=1M --numjobs=4 --size=1G --group_reporting /path/to/disk/tempfile
244
245 ##### Endurance
246 Les SSD meurent bien plus rapidement que les HDD. Ils sont donc encore moins adaptés au stockage de long-terme.
247 Les fabricants de SSD annonce une espérance de vie en Terabytes Written (TBW) ou Drive Writes Per Day (DWPD).
248 Les disques fournissent des attributs SMART :
249 > smartctl -a /dev/sda
250
251 Il est important d'activer le TRIM du système de fichier pour que l'effacement ne consomme pas les ressources du SSD. ZFS supporte cela depuis peu.
252
253 Après plus de 5 ans d’usage laptop relativement intensif, mon SSD Samsung 128G affiche encore 75% de santé.
254
255 ##### Cache
256 Réserver une partie du SSD pour le swap est utile, notamment pour faire des tmpfs.
257 Mettre dans ZFS semble le plus propre mais il existe encore un bug connu sévère qui le déconseille : https://github.com/zfsonlinux/zfs/issues/7734
258 Il ne servirait à rien de le mettre dans le RAID, il suffit juste de mettre le swap dans un LUKS dédié pour le chiffer (avec une nouvelle clé éphémère à chaque boot) et d’ajouter les devices déchiffrés à la liste des swaps gérés par le noyau Linux.
259
260 Benchmark :
261 > stress --vm 10 --vm-keep --vm-bytes 512M
262
263 Configuration du noyau Linux :
264 > vm.swappiness = 10
265
266 ##### Secteurs
267 Si un SSD 4KB est utilisé pour le boot, un coreboot supportant UEFI devra être installé car GRUB ne supportera BIOS pour les disques 4KB : http://savannah.gnu.org/bugs/?46700
268 La taille physique des secteurs est donnée par fdisk -l ou /sys/block/sd*/queue/physical_block_size
269
270 ##### Modèles
271 - https://www.fnac.com/mp37714266/Transcend-ts128gmsa230s-ssd-interne-msata-iii-128-go-sata-iii-6-gbps-3d-tlc/w-4
272 - https://www.ldlc.com/fiche/PB00253086.html
273
274 #### ZFS
275 Bien que je n’ai aucune expérience avec (ZFS n’est pas exotique, mais n’est pas non plus le défaut sous Debian), je choisis d’utiliser ZFS plutôt que le stack RAID+LUKS+LVM+ext4+rsync que je connais bien, car il me semble que l'approche intégrée de ZFS permet une configuration moins complexe, plus granulaire, plus évolutive, tout aussi mature, plus fiable contre la corruption des disques, et plus sécurisée du point de vue des sauvegardes.
276 ZFS est mature mais requiert de l’attention et de l’expertise, dans le cas contraire cela peut amener à de mauvaises performances, voire à de la perte de données.
277 ZFS a une multitude de fonctionnalités qui questionne de premier abord par rapport à la philosophie Unix de faire une seule chose mais de le faire bien. Il y a surement de très bonnes raisons de gérer ces fonctionnalités de manière intégrée, en tout cas la granularité et flexibilité que cela permet sont très appréciables quand on ne sait pas trop comment nos besoins vont évoluer.
278 ZFS a été premièrement pensé pour protéger les données de corruptions, en considérant que les disques conspirent pour perdre les données.
279 ZFS bénéficierait du travail d’environ 77 personnes par an, ce qui donne l’impression d’un développement aussi éclaté qu’actif : https://www.percona.com/blog/2017/11/15/zfs-from-a-mysql-perspective/
280 ZFS aurait une taille de son code source équivalente à 10 fois celle d’EXT4, mais ZFS remplace aussi MD, LVM, dm-crypt, …
281 ZFS ne peut légalement pas être intégré directement au noyau Linux mais cela est bien géré par NixOS.
282
283 Quelques fonctionnalités / concepts de ZFS (mais voir surtout les man zfs(8) et zpool(8))
284 - CoW (copy-on-write) : consiste à ne pas écraser un enregistrement lorsqu'il y a besoin de le modifier, mais d'écrire un nouvel enregistrement, de changer des pointeurs et de laisser le ramasse-miette (garbage-collector) de ZFS libérer l’ancien si il n’est plus référencé. Cela permet de garantir la cohérence des données sur les disques, tout en supprimant le besoin d'un journal ou de faire des fsck.
285 - Pool storage (hot add disks) : pas besoin de décider à l'avance de la taille de partitions ou de les redimensionner.
286 - ZIL (ZFS Intent Log) : cache des écritures synchrones. Utile lorsqu'il y a beaucoup d’écriture synchrones ou pour servir des fichiers qui changent fréquemment.
287 - SLOG (Separate Intent Log) : ZIL séparé sur un autre disque (de préférence répliqué par RAID avec write-back, car le perdre serait dramatique), généralement de quelques Gio, rapide pour les écriture séquentielles et les fsync().
288 - ARC (Adjustable Replacement Cache)/ : cache en RAM auto-ajusté entre MRU/LRU et MFU/LFU. Cache ce qui a été le plus récemment utilisé (MRU) et le plus fréquemment utilisé (MFU).
289 - L2ARC (Level 2 ARC) : cache de lecture optionnel sur disque (SSD, pour être utile) qui stocke les données balayées de l’ARC. Le contenu du L2ARC est référencé dans l’ARC et occupe donc de la RAM (~25MB d’ARC par GB de L2ARC). Par conséquent utiliser un L2ARC dans un système qui n’a pas une quantité de RAM suffisante nuit aux performances en imposant une pression sur l’ARC : les données qui auraient pu être servies depuis la RAM de l’ARC devront maintenant être servies depuis le SSD du L2ARC. Un système avec moins de 8Gio de RAM n’a pas besoin de L2ARC. jgreco : « Do not add L2ARC to an 8GB system. Period. Probably not to 16 either. Maybe at 24 or 32GB, but you have to remember that L2ARC stresses out the ARC and that you shouldn't exceed maybe a 4:1 ratio of L2ARC:ARC. »
290 - Quotas et réservations.
291 - Héritage des propriétés entre les datasets.
292 - Délégation fine des droits d'administration à des utilisateurs (ˋzfs allowˋ).
293 - Checksum : ZFS utilise des sommes de contrôle tout au long de l'arborescence des blocks de données à des endroits séparés des données (parent-block), et pas au niveau et à côté des données, ce qui permet non seulement de détecter les bits défectueux (bit-rot), mais également d'autres erreurs possibles : phantom writes, misdirected reads and writes, DMA parity errors, driver bugs, acccidental overwrites. Si plus d’une copie (copies= strictement supérieur à 1) est disponible et qu’une des copies est détectée comme corrompue, ZFS retournera seulement la copie valide et réparera les enregistrement endommagés. Si une erreur mais pas de copie pour réparer, ZFS signalera l'erreur au lieu de la passer sous silence.
294 - Scrubing (self-healing) : ˋzpool scrubˋ permet de faire une lecture réparatrice de tout ce qu'il y a dans un pool. Aussi lent que le pool contient de données. Il est important de la faire régulièrement automatiquement, cela ne devrait pas interférer avec les autres applications car le scrubing utilise les ressources avec une faible priorité.
295 - Send/Receive : ˋzfs sendˋ et ˋzfs receiveˋ permettent d’envoyer et de recevoir entièrement ou incrémentalement des captures instantanées (snapshots) vers d’autres machines. Ce transfert peut être effectué sans décompresser/déchiffrer puis compresser/chiffrer (avec `zfs send --raw`). Très utile pour faire des sauvegardes à distance à travers nc, ssh, ou mbuffer pour aller plus vite.
296 - Réplication : mirror, raidz-1, raidz-2, raidz-3, raidz-N où N est le nombre de disques qui peuvent cesser de fonctionner sans que cela n'impacte le système, c'est équivalent aux RAID1, RAID5, RAID6, …. L’équivalent de la reconstruction du RAID s’appelle ici « resilvering », mais celle-ci ne s'applique que sur l'espace utilisé du disque et non sur tout le disque, ce qui permet un temps de reconstruction proportionnel à l'usage et non à la capacité, ce qui stresse moins les disques, et les admins. Cependant cela peut tout de même prendre un temps à ne pas négliger, donc à tester pour ne pas avoir la surprise lors d'une crise, et pouvoir agir en conséquence avant, par exemple en mettant plus de disques de mirroir ou de parité, ou en utilisant du declustering raidz pour faire du load-balancing sur les disques et donc accélérer le resilvering.
297 - Déduplication : ZFS peut découvrir que des fichiers ou enregistrements sont similaires et éviter leur duplication, mais cela demande beaucoup de RAM.
298 - Snapshots/Clones/Rollback : ˋzfs snapshotˋ permet de prendre des instantanés au niveau d'un dataset en temps quasi-constant, tout comme Git permet de faire des branches. Directement lisibles en lecture-seule dans [dataset]/.zfs/snapshots/. La prise automatisée et régulière de snapshots est très utile pour toutes sortes d'applications et protections (erreurs de manipulations, ransomware). Plus rapide en activant le prefetch scan. ˋzfs cloneˋ permet de faire un dataset modifiable à partir d'un snapshot. ˋzfs rollbackˋ permet de réinitialiser un dataset à un ancien snapshot.
299 - Compression : ZFS permet de compresser les données selon divers algorithmes (LZ4 usuel, GZIP recommandé parfois par exemple sur les données séquentielles comme des logs, ou certaines bases de données), cette compression est généralement considérée comme un gain de performances et d’espace, surtout quand le temps que cette (dé)compression prend au CPU est moindre que le temps d’accès au disque.
300 - Chiffrement : ZFS permet (en version officielle depuis seulement mai 2019) de chiffrer et authentifier les données, ce qui permet notamment :
301 - la compression (contrairement à ecryptfs).
302 - de faire des sauvegardes de dossiers spécifiques sans déchiffrer les données.
303 - de faire du chiffrement de bout en bout (end-to-end) avec (zfs send).
304 D’après man zfs, sont chiffrées : zvol data, file attributes, ACLs, permission bits, directory listings, FUID mappings, and userused / groupused data.
305 Ne sont pas chiffrées : metadata related to the pool structure, including dataset and snapshot names, dataset hierarchy, properties, file size, file holes, and deduplication tables.
306 Le fait que tout ne soit pas chiffré peut être inquiétant mais permet d'effectuer des opérations de maintenance sur les données sans nécessiter de pouvoir les déchiffrer.
307 Le chiffrement peut être activé en cours de route, mais ne concernera que les données qui seront écrite par la suite.
308 Il est important d’avoir un support des instruction AES-NI, qui en plus d’améliorer le SSH, le VPN, le HTTPS, améliore le chiffrement du stockage lorsque de l'AES est utilisé.
309
310 ##### Ressources
311 - https://wiki.debian.org/ZFS
312 - https://github.com/zfsonlinux/zfs/wiki/Debian-Buster-Root-on-ZFS
313 - https://wiki.archlinux.org/index.php/ZFS
314 - https://nixos.wiki/wiki/NixOS_on_ZFS
315 - https://wiki.freebsd.org/ZFSTuningGuide
316 - https://github.com/a-schaefers/themelios
317 - https://www.unixsheikh.com/articles/battle-testing-data-integrity-verification-with-zfs-btrfs-and-mdadm-dm-integrity.html
318
319 #### RAID (Redundant Array of Inexpensive Disks)
320 La réplication entre deux disques ou plus que permet de se prémunir contre la défaillance matérielle d'un des deux disques. Le coût à payer est d’acheter un deuxième disque (pas forcément d'emblée) et de supporter un temps de lecture qui peut aller jusqu'à la somme de celui de chaque disque, et un temps d'écriture qui égal à celui du disque le plus lent.
321 RAID est une solution de réplication matérielle ou logicielle bien établie.
322 RAID permet d’appliquer la réplication en dessous du chiffrement LUKS, alors que la réplication ZFS intervient en dessus du chiffrement LUKS, causant un chiffrement par disque de toute écriture. Toutefois, l’APU2 ayant un coprocesseur pour les AES-NI, en utilisant --cipher aes-xts-plain64 pour LUKS ces chiffrements supplémentaires n’auraient probablement pas d’un impact significatif sur les performances justifiant d’abandonner la flexibilité de ZFS.
323
324 Le RAID logiciel peut être contrôlé par mdadm ou LVM (--type=raid), le backend mdraid est le même mais ce n'est pas compatible, mdadm est plus établi et abouti que LVM.
325
326 Si cette pénalité devient trop importante, un RAID5 (ou raidz) pourra être envisagé : https://serverfault.com/questions/830708/raid-1-to-raid-5-using-mdadm .
327 Voire plutôt RAID6 qui n'a pas qu'un seul disque de parité, car le remplacement d'un disque est facteur de défaillance des autres disques.
328 RAID (surtout RAID-5) a un problème fondamental lors de l’écriture appelé write-hole, que n'a pas ZFS : les écritures de données et de parités ne sont pas atomiques, par conséquent une coupure de courant au mauvais moment peut produire un état où les données sont ´crites mais pas les parités : http://www.raid-recovery-guide.com/raid5-write-hole.aspx .
329
330 #### LUKS (Linux Unified Key Setup)
331 dm-crypt avec entêtes LUKS permet un chiffrement au niveau des block devices, et non seulement au niveau du contenu ou des métadonnées des fichiers comme ZFS ou ecryptfs.
332
333 LUKS sera utile pour chiffrer le swap (qui ne peut pas encore être mis dans ZFS de manière fiable), et éventuellement le chiffrement complet du disque (c’est-à-dire de l’initrd et du kernel, mais pas du firmware ou du bootloader), auquel cas il faudra utiliser un LUKS1 (et pas LUKS2) tant qu’une version stable de GRUB ne supportera pas LUKS2.
334
335 Pour benchmarker LUKS : https://unix.stackexchange.com/questions/254017/how-to-interpret-cryptsetup-benchmark-results
336 > cryptsetup benchmark
337
338 Pour de l’AES-128 cela donne :
339 > cryptsetup luksFormat --iter-time 2s --hash sha256 --cipher aes-xts-plain64 --keysize 256 /dev/sdX
340 XTS est recommandé pour chiffrer des block devices, à noter toutefois qu’XTS sépare la clé en deux, ce qui nécessite de doubler --keysize.
341
342 #### ecryptfs
343 Le chiffrement par ecryptfs ne permet ni compression, ni déduplication (pas très grave) et rajoute des métadonnées en entête, ce qui prend (un peu) de place.
344
345 #### LVM (Linux Volume Manager)
346
347
348 # Actions
349
350 ## Machine
351 L'APU2 est la machine x86_64 (donc bien supportée par NixOS et GHC) basse conso, la plus ouverte (ce qui est bien dans l'esprit de Sourcephile), et elle devrait permettre d'assurer le plus important dans un premier temps.
352
353 - https://www.fsf.org/resources/hw
354 - https://wiki.debian.org/FreedomBox/Hardware
355 - https://nixos.wiki/wiki/NixOS_on_ARM
356
357 ## Réseau
358 Un essai d’hébergement est expérimenté chez PTT, qui est à côté de chez julm.
359
360 ## Stockage
361 Le stockage assure ici :
362 - du cache (LUKS+swap)
363 - du chiffrement (ZFS encryption)
364 - de la réversibilité (ZFS snapshots)
365 - de la sauvegarde (ZFS snapshots et zfs send)
366 - et de la base de données (ZFS customisé).
367
368 Le stockage n’assure pas ici :
369 - de la réplication (ZFS mirror/raidz) : tant que les services applicatifs pourront supporter une coupure de quelques jours, il n’y a pas de réplication en temps-réel, mais il faudra avoir un SSD de dépannage et réformer celui en production lorsqu’il sera descendu à 50% de santé. Mais une surveillance accrue de l’usure des disques et des sauvegardes régulières doit donc être menée.
370
371
372 Réemploi d’un Samsung 840 EVO (mieux que QVO) de 250GB, sans condensateur interne, que je possède mais n’ai que très peu utilisé jusque là (janvier 2020) :
373 > % smartctl-tbw /dev/disk/by-id/ata-Samsung_SSD_840_EVO_250GB_S1DBNSAF340110R
374 > /dev/disk/by-id/ata-Samsung_SSD_840_EVO_250GB_S1DBNSAF340110R Power_On_Hours 1437 hours / 59 days / 0.16 years
375 > /dev/disk/by-id/ata-Samsung_SSD_840_EVO_250GB_S1DBNSAF340110R Wear_Leveling_Count 99 (% health)
376 > /dev/disk/by-id/ata-Samsung_SSD_840_EVO_250GB_S1DBNSAF340110R Airflow_Temperature_Cel 24
377 > /dev/disk/by-id/ata-Samsung_SSD_840_EVO_250GB_S1DBNSAF340110R Total_LBAs_Written 685441898 / 334688 mb / 326.8 gb / 0.319 tb
378 > /dev/disk/by-id/ata-Samsung_SSD_840_EVO_250GB_S1DBNSAF340110R mean writes per hour: 232.91
379
380 > % fdisk -l /dev/disk/by-id/ata-Samsung_SSD_840_EVO_250GB_S1DBNSAF340110R
381 > Disk /dev/disk/by-id/ata-Samsung_SSD_840_EVO_250GB_S1DBNSAF340110R: 232.9 GiB, 250059350016 bytes, 488397168 sectors
382 > Disk model: 2235
383 > Units: sectors of 1 * 512 = 512 bytes
384 > Sector size (logical/physical): 512 bytes / 512 bytes
385 > I/O size (minimum/optimal): 512 bytes / 33553920 bytes
386 > Disklabel type: gpt
387 > Disk identifier: E42083E9-58B2-4CD0-B716-2B923C6B8007
388
389 ### Partitionnement
390 Un amorçage BIOS est utilisé (`boot.grub.devices = [ "/dev/disk/by-id/ata-Samsung_SSD_840_EVO_250GB_S1DBNSAF340110R" ]`), mais pas la partition EFI (`boot.grub.efiSupport = false`) qui est tout de même allouée si besoin un jour.
391
392 La table de partition est au format GPT, qui se retrouve de plus en plus dans les tutos que MSDOS, tout en étant bien supporté par les outils.
393 Les UUID sont randomisées (avec ˋsgdisk -Gˋ) et distincts d'un disque à l'autre.
394
395 Il ne semble pas nécessaire de faire une partition de secours (rescue), une clé USB, un accès par port série ou un busybox sur /boot devrait suffire.
396 La partition /tmp sera un tmpfs utilisant la RAM et les 4 à 8G de swap.
397 Les logs sont sur un dataset séparé pour garantir fortement qu'elle ne remplira pas celle des données, et pour que déchiffrer les logs, n'implique pas de déchiffrer les données.
398
399 > fdisk -l /dev/sda
400 > Disque /dev/sda : 232,9 GiB, 250059350016 octets, 488397168 secteurs
401 > Modèle de disque : Samsung SSD 840
402 > Unités : secteur de 1 × 512 = 512 octets
403 > Taille de secteur (logique / physique) : 512 octets / 512 octets
404 > taille d'E/S (minimale / optimale) : 512 octets / 512 octets
405 > Type d'étiquette de disque : gpt
406 > Identifiant de disque : 161F060D-FF6C-4FDA-8A2D-483F4155D35E
407 >
408 > Périphérique Début Fin Secteurs Taille Type
409 > /dev/sda1 48 2047 2000 1000K Amorçage BIOS
410 > /dev/sda2 2048 1050623 1048576 512M Système EFI
411 > /dev/sda3 1050624 3147775 2097152 1G Système de fichiers Linux
412 > /dev/sda4 3147776 11536383 8388608 4G Système de fichiers Linux
413 > /dev/sda5 11536384 488397134 476860751 227,4G /usr Solaris et ZFS Apple
414
415 > lsblk
416 > NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
417 > sda 8:0 0 232,9G 0 disk
418 > ├─sda1 8:1 0 1000K 0 part
419 > ├─sda2 8:2 0 512M 0 part /boot/efi
420 > ├─sda3 8:3 0 1G 0 part /boot
421 > ├─sda4 8:4 0 4G 0 part
422 > └─sda5 8:5 0 227,4G 0 part
423
424 > blkid
425 > /dev/sda1: PARTLABEL="bios" PARTUUID="e8f0f747-41e3-47a9-a813-a7b422aeb62c"
426 > /dev/sda2: LABEL_FATBOOT="EFI" LABEL="EFI" UUID="62E6-E65F" TYPE="vfat" PARTLABEL="uefi" PARTUUID="76ee8adb-d5c3-4b23-a895-2ad23519b73d"
427 > /dev/sda3: UUID="dc3c5387-17d2-43b3-bfa2-bf73afacca07" TYPE="ext2" PARTLABEL="boot" PARTUUID="82f5139d-19ba-4746-a6a5-70f8901530d5"
428 > /dev/sda4: PARTLABEL="swap" PARTUUID="6b1eaa35-776b-4e60-b21e-7bcee535dd8b"
429 > /dev/sda5: LABEL="rpool" UUID="4051860347751825829" UUID_SUB="15749116107064223960" TYPE="zfs_member" PARTLABEL="rpool" PARTUUID="3d462265-6c51-42c0-8bd8-d585eb076677"
430
431 > zpool list
432 > NAME SIZE ALLOC FREE CKPOINT EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT
433 > rpool 226G 1,08G 225G - - 0% 0% 1.00x ONLINE -
434
435 > zfs list
436 > NAME USED AVAIL REFER MOUNTPOINT
437 > rpool 1,08G 218G 96K /
438 > rpool/home 96K 218G 96K legacy
439 > rpool/nix 1,08G 218G 1,07G legacy
440 > rpool/root 312K 218G 312K legacy
441 > rpool/var 1,18M 218G 236K legacy
442 > rpool/var/cache 96K 218G 96K legacy
443 > rpool/var/log 552K 218G 552K legacy
444 > rpool/var/mail 96K 218G 96K legacy
445 > rpool/var/tmp 136K 218G 136K legacy
446 > rpool/var/www 96K 218G 96K legacy
447
448 ## Chiffrement
449 AES-128 est ici considéré comme suffisamment sécurisant vu le niveau de menace et de sécurité physique.
450 https://xkcd.com/538/
451
452 L’aes-xts en deux clés de 128 bits est choisi pour le swap. NixOS ne passe pas par /etc/crypttab, mais a randomEncryption.
453 Important d’utiliser device = /dev/disk/by-partuuid/… et pas /dev/disk/by-uuid/… or /dev/disk/by-label/… qui seront changées à chaque reboot, mais pas /etc/fstab du coup.
454 Important également d’utiliser /dev/urandom (le défaut) et pas /dev/random qui n’apporte aucune sécurité supplémentaire mais peut ralentir le boot significativement en épuisant l’entropie disponible.
455
456 > swapDevices =
457 > [ { device = "/dev/disk/by-partuuid/6b1eaa35-776b-4e60-b21e-7bcee535dd8b";
458 > randomEncryption = {
459 > enable = true;
460 > cipher = "aes-xts-plain64";
461 > source = "/dev/urandom";
462 > };
463 > }
464 > ];
465
466 > cryptsetup benchmark
467 > # Tests approximatifs en utilisant uniquement la mémoire (pas de stockage E/S).
468 > PBKDF2-sha1 140334 itérations par seconde pour une clé de 256 bits
469 > PBKDF2-sha256 182044 itérations par seconde pour une clé de 256 bits
470 > PBKDF2-sha512 124830 itérations par seconde pour une clé de 256 bits
471 > PBKDF2-ripemd160 105025 itérations par seconde pour une clé de 256 bits
472 > PBKDF2-whirlpool 59795 itérations par seconde pour une clé de 256 bits
473 > argon2i 4 itérations, 174847 mémoire, 4 threads parallèles (CPUs) pour une clé de 256 bits (temps de 2000 ms demandé)
474 > argon2id 4 itérations, 179163 mémoire, 4 threads parallèles (CPUs) pour une clé de 256 bits (temps de 2000 ms demandé)
475 > # Algorithme | Clé | Chiffrement | Déchiffrement
476 > aes-cbc 128b 145,3 MiB/s 339,0 MiB/s
477 > serpent-cbc 128b 13,1 MiB/s 35,4 MiB/s
478 > twofish-cbc 128b 31,7 MiB/s 37,8 MiB/s
479 > aes-cbc 256b 116,0 MiB/s 276,3 MiB/s
480 > serpent-cbc 256b 14,5 MiB/s 35,4 MiB/s
481 > twofish-cbc 256b 34,5 MiB/s 38,2 MiB/s
482 > aes-xts 256b 227,7 MiB/s 225,6 MiB/s
483 > serpent-xts 256b 34,6 MiB/s 34,7 MiB/s
484 > twofish-xts 256b 36,4 MiB/s 37,4 MiB/s
485 > aes-xts 512b 201,9 MiB/s 201,8 MiB/s
486 > serpent-xts 512b 34,8 MiB/s 34,9 MiB/s
487 > twofish-xts 512b 36,8 MiB/s 37,3 MiB/s
488
489 ## Sauvegardes
490 ### Manuelles
491 Entre deux pools :
492 > zfs send --raw sourcename@snapname | pv -rtab | time zfs receive -svF destination/dataset
493 Entre le disque SSD monté sur le port SATA, et un disque SSD externe (Samsung 860 EVO 1T) monté en USB3, le transfert va à ~110Mio/s (trois fois moins sans `--raw`), soit 15min pour transférer 100Gio.
494 `--raw` est ce qui permet de transférer sans {dé,re}compresser et {dé,re}chiffrer.
495
496 Entre deux pools mais à travers le réseau cette fois :
497 > [root@desthost] nc -l 8000 | mbuffer -q -s 128k -m 1G | pv -rtab | time zfs receive -svF destpool/destfs
498 > [root@srchost] zfs send --raw -I srcpool/srcfs@oldsnap sourcename@newsnap | mbuffer -q -s 128k -m 1G | pv -b | nc desthost 8000
499
500 En cas de coupure, il suffit de donner au send le receive_resume_token du receive pour reprendre où ça en était :
501 > [root@desthost] zfs get -H -o value receive_resume_token destpool/destfs
502 > [root@desthost] nc -l 8000 | mbuffer -q -s 128k -m 1G | pv -rtab | time zfs receive -svF destpool/destfs
503 > [root@srchost] zfs send -t $receive_resume_token | mbuffer -q -s 128k -m 1G | pv -b | nc desthost 8000
504
505 ## Consommation
506 Au repos :
507 > [root@mermet:~]# sensors
508 > k10temp-pci-00c3
509 > Adapter: PCI adapter
510 > temp1: +48.6°C (high = +70.0°C) (crit = +105.0°C, hyst = +104.0°C)
511 >
512 > fam15h_power-pci-00c4
513 > Adapter: PCI adapter
514 > power1: 4.23 W (interval = 0.01 s, crit = 6.00 W)
515
516 ## Noms de domaine
517 NSD4 prend minimum 100Mio de RAM.
518 Unbound pouvant également être serveur DNS faisant autorité, pour le peu de zones à annoncer, mélanger les deux suffira.
519
520 Ressources :
521 - https://www.bortzmeyer.org/separer-resolveur-autorite.html
522 - https://www.redpill-linpro.com/techblog/2019/08/27/evaluating-local-dnssec-validators.html
523
524 ## Travaux futurs
525 ### Machine d'orchestration
526 ### Machine de sauvegardes
527 Il est important de bien mettre en place une sauvegarde automatique, d’autant plus qu’il n’y a pas de réplication en temps-réelle mise en place sur un second disque.
528 ZFS (zfs send) devrait faciliter cette sauvegarde, en produisant notamment des sauvegardes directement lisibles/vérifiables, sans avoir besoin de restaurer la dernière version, juste de la déchiffrer.
529
530 D’autres outils sont pour l’instant écartés :
531 - duplicity : sauvegardes incrémentales requérant un snapshot complet et une liste de différences jusque là.
532 - BorgBackup : déduplication.
533
534 ### Machine de compilations
535 Il faut préalablement voir les performances que permet cette première machine, qui même si elles ne sont pas remarquables, peuvent suffire dans un premier temps.
536
537 - http://wiki.ant-computing.com/Choosing_a_processor_for_a_build_farm
538 > The intel Core as found in the Core i5 is performing very well, but hyperthreading brings little benefit here (13%). Thus a CPU should be chosen with real cores
539 > [...]
540 > In this test, the AMD was the fastest of all systems, and the ARM was the fastest fanless system and also the one delivering the highest throughput per cubic centimeter.
541 > [...]
542 > Some tests run with the ramlat utility showed that the build time almost solely depends on the L1 cache speed, then a little bit on the L2 cache speed and then finally on the DRAM speed. It does not exactly depend on the memory bandwidth but rather latency.
543
544
545 # Critiques
546 ## Inconvénients
547 ### Vulnérabilités Metldown et Spectre
548 Problème : l’AMD GX-412TC de l’APU2 est vulnérable à Meltdown et Spectre. L’atténuation n’est que partielle : https://blog.3mdeb.com/2019/2019-05-29-spectre-and-meltdown-on-apu2/
549
550 Réponse : tous les CPU Intel ou AMD sont plus ou moins affectés par ces vulnérabilités.
551 Il semble que tout soit néanmoins atténué :
552 > git clone https://github.com/speed47/spectre-meltdown-checker.git
553 > spectre-meltdown-checker/spectre-meltdown-checker.sh
554 > Spectre and Meltdown mitigation detection tool v0.43-3-ga1a35c9
555 >
556 > Checking for vulnerabilities on current system
557 > Kernel is Linux 4.19.81 #1-NixOS SMP Tue Oct 29 08:20:09 UTC 2019 x86_64
558 > CPU is AMD GX-412TC SOC
559 > […]
560 > * CPU microcode is the latest known available version: NO (latest version is 0x7030106 dated 2018/02/09 according to builtin firmwares DB v130.20191104+i20191027)
561 > […]
562 > SUMMARY: CVE-2017-5753:OK CVE-2017-5715:OK CVE-2017-5754:OK CVE-2018-3640:OK CVE-2018-3639:OK CVE-2018-3615:OK CVE-2018-3620:OK CVE-2018-3646:OK CVE-2018-12126:OK CVE-2018-12130:OK CVE-2018-12127:OK CVE-2019-11091:OK CVE-2019-11135:OK CVE-2018-12207:OK
563 > Need more detailed information about mitigation options? Use --explain
564 > A false sense of security is worse than no security at all, see --disclaimer
565
566 ### L'APU2 n'a pas une alimentation redondée
567 Problème : l'alimentation est l'un des composants les plus susceptibles de ne plus fonctionner.
568
569 Réponse : entreposer une seconde alimentation à côté du serveur, de sorte à minimiser le temps de hors-service et que cela puisse éventuellement être fait par l'hébergeur.
570
571 ### L'APU2 n'est pas adapté à la virtualisation
572 Problème : pour faire de la virtualisation il est préférable d'avoir des CPU avec des instructions adaptées (VT), de la RAM en quantité (~512Mio/VM) et de l'IOMMU (pas encore stable dans l'APU2).
573
574 Réponse : la virtualisation est surtout adaptée lorsque ce ne sont pas les mêmes personnes qui gèrent les services, ou lorsqu'il faut faire tourner des OS différents. Mais dans le cas présent ce n'est pas le cas, donc des containers type LXC devraient suffire du point de vue d'une compartimentation sécuritaire.
575
576 ### PTT ne propose pas d’accès secondaire par port série
577 Problème : l’APU2 n’a pas d’IPMI, seulement un port série, cependant PTT n'a pas de switch de ports série ou USB pour le moment, et ne sait pas trop comment gérer les accès d’un tel switch. Cet accès secondaire est important pour espérer pouvoir redémarrer l’APU2 à distance. Cependant seule une coupure de l’alimentation permet un redémarrage propre (cold-boot).
578
579 Réponse : il faudrait probablement étudier et proposer nous même un switch permettant cela. Pour le cold-boot, utile surtout lors d'une mise-à-jour de coreboot, on peut désormais `setpci -s 18.0 6c.L=10:10` avant le reboot.
580
581 ### nsd4 et iodined nécessitent tous deux le port 53
582 Problème : normalement nsd4 et iodined sont incompatibles sur une seule et même IPv4 (à 3€/mois ici), car ils requièrent tous deux l’écoute sur le port 53 du DNS.
583
584 Réponse : ce n’est pas très propre, mais il est possible de mutualiser ce port avec une règle iptables du genre : `-A nat -p udp --dport 53 -m string --algo kmp --from 40 --hex-string |01|i|0b|sourcephile|02|fr|00| -j DNAT --to-destination :5353` où iodined écoute maintenant sur le port 5353.
585
586 ### ZFS n’est pas (trivialement) adapté aux bases de données
587 Problème : les bases de données ont des performances amoindries sous un ZFS qui n’est pas customisé pour. Le copy-on-write de ZFS peut avoir un impact négatif très significatif sur les applications dont le cœur de métier est de modifier des fichiers en place, comme MySQL ou PostgreSQL : https://wiki.freebsd.org/ZFSTuningGuide#Application_Issues
588
589 Réponse : on utilise actuellement du SSD pour tout (donc pour le ZIL qui gère les écritures synchrones, eg. O_SYNC) donc ça devrait aller sans L2ARC pour lequel l'APU2E4 n'a de toute façon pas assez de RAM. Il y a des atténuations possible à tester (sync=always, recordsize inférieur à 128k, …), il semble raisonnable à ce stade de ne pas chercher une optimisation prématurée en allouant une partition EXT4 de taille arbitraire et en s’imposant tout ce que ça implique de configuration de RAID/LUKS/LVM alors que ZFS nous permet justement de nous en passer. Il restera toujours possible de rajouter un SSD avec LUKS+EXT4 dédié aux bases de données si c’est vraiment trop problématique.
590
591 Ressources :
592 - https://www.percona.com/blog/2018/02/16/why-zfs-affects-mysql-performance/
593 - https://www.percona.com/resources/webinars/zfs-mysql
594 - https://www.percona.com/blog/2018/05/15/about-zfs-performance/
595
596 ### Le chiffrement de ZFS limite le nombre de copies à 2
597 Problème : même sans activer une réplication (mirror ou raidz), ZFS permet de garder plusieurs copies de chaque fichier, mais lorsque ces fichiers sont chiffrés ce nombre est actuellement limité à 2.
598
599 Réponse : c’est déjà pas mal.
600
601 ### ZFS requiert de l’espace de stockage libre
602 Problème : ZFS fonctionne par copy-on-write ce qui implique qu’écrire demande beaucoup plus d’espace libre que pour d’autres systèmes de fichiers. Même pour écraser un fichier il faut de l’espace libre ! En outre, comme pour tous les systèmes de fichiers, l’espace disponible annoncé avant son utilisation est généralement supérieur à l’espace utilisable mesuré fichier à fichier, ce qui peut quand même représenter quelques Gio de moins sur 100Gio.
603
604 Réponse : ZFS nécessite de veiller à la RAM et au stockage libre, il faut veiller à ce que ZFS ait toujours au moins 20% d’espace libre pour ne pas avoir de pertes de performances et éviter de taper toujours sur les mêmes secteurs du SSD, ce qui diminuerait sensiblement son espérance de vie. Concernant le calibrage de l’espace, il vaut toujours mieux utiliser `du` que `df`.
605
606 ## Question non-résolues
607
608 ## Alternatives
609
610 ### RAID+LUKS+LVM+ext4
611 La réplication peut être assurée par RAID (RAID1) au lieu de ZFS (mirror ou raidz).
612
613 Le chiffrement par dm-crypt+LUKS au-dessous de ZFS a pour désavantages d'impliquer que les copies/réplications de ZFS sont chiffrées plusieurs fois, et que les clés doivent toujours être en mémoire. Il est par contre pertinent de l’utiliser pour le swap compte tenu que ZFS a encore un bug ouvert concernant le swap dans ZFS : https://github.com/zfsonlinux/zfs/issues/7734
614
615 ### TLsense
616 - Processeur : Intel i3 | i5 | i7
617 - i7 : https://teklager.se/en/products/routers/tlsense-i7-4lan
618 - Mémoire : 8Go
619 - Réseau : 4x Gigabit Ethernet
620 - Conception : Suède
621 - Fabrication : ?
622
623 ### Helios4
624 - Infos : https://kobol.io/helios4/
625 - Prix : 177€
626 Open hardware mais ARM pas x86, et plus en vente pour le moment.
627
628 ### HPE ProLiant MicroServer
629 - Processeur : AMD Opteron X3416 (2x 1.6–3.0GHz) | X3421 (4x 2.1–3.4GHz)
630 - Mémoire : 1x 8Go (max 2x 16Go) DDR4-SDRAM (X3416: 1600Mhz | X3421: 2400MHz) Unbuffered ECC (non-soudées)
631 - Cache L2 : X3416: 1Mo | X3421: 12Mo
632 - Réseau : 2x Gigabit Ethernet
633 - Électricité : 12-35W
634 - Stockage : 4x SATA 3.5"
635 - Extensions : 2x PCIe 3.0
636 - Prix :
637 - X3416 : 328€HT https://www.senetic.fr/product/873830-421
638 - X3421 : 415€HT https://www.senetic.fr/product/P04923-421
639 - Conception : USA
640 - Fabrication : ?