• # Intéressant

    Posté par  (site web personnel) . Évalué à 5.

    Je trouve étonnant la raison du dysfonctionnement. Les satellites ont été tout juste lâchés dans la «haute atmosphère», qui est la couche où évoluent généralement les satellites et stations spatiales. La récente éruption solaire a modifié la densité de cette couche (qui n'est donc pas nulle), ce qui a empêché les satellites de gagner leur orbite définitive.

    Un point positif cependant, ils ont été guidés pour se désintégrer dans l'atmosphère et n'ont pas participé à la pollution spatiale.

    Un LUG en Lorraine : https://enunclic-cappel.fr

    • [^] # Re: Intéressant

      Posté par  . Évalué à 10.

      Je ne sais pas trop pourquoi tu es "étonné". Les satellites sont toujours largués par le lanceur sur une trajectoire proche de leur trajectoire cible, mais ils ont besoin d'ajuster leur orbite de manière autonome. Pour des questions de masse et d'énergie, il est logique d'envoyer les satellites sur une trajectoire plus basse que leur orbite définitive—tant qu'à dépenser de l'énergie, autant le faire pour monter plutôt que pour descendre, ce qui voudrait dire que le lanceur les a envoyés trop loin). Les satellites géostationnaires, par exemple, sont largués sur une orbite d'insertion (très elliptique, avec l'apogée au niveau de l'orbite géostationnaire) et ils s'insèrent eux-mêmes en orbite circulaire.

      Si la densité de l'atmosphère augmente au point où les satellites ne peuvent pas atteindre l'endroit de l'orbite auquel ils étaient censés allumer leurs moteurs—typiquement, du fait des frottements, leur apogée descend et reste dans la haute atmosphère—ils sont foutus.

      D'après les commentateurs, SpaceX a tendance à radiner un peu avec l'altitude de lancement; apparemment sur ce coup la marge était un peu trop faible.

      Un point positif cependant, ils ont été guidés pour se désintégrer dans l'atmosphère et n'ont pas participé à la pollution spatiale.

      J'imagine qu'ils ont été guidés vers une zone où ils pouvaient de désintégrer sans danger pour ce qui était en dessous (Pacifique Sud, en général), mais quand un satellite n'est pas assez haut, il ne peut que retomber. Même l'ISS (qui doit être à environ 450km) redescend, et il faut régulièrement remonter son orbite. En gros, tout ce qui est en dessous de 400km retombe (c'est une affaire d'années, en règle générale); tout ce qui est au-dessus de 800km restera là-haut à l'échelle de l'humanité.

      Du coup, sur les orbites basses, les débris spatiaux ne sont pas un problème énorme. Au pire, ça nous empêchera de lancer des choses dans cette zone pendant quelques années.

      • [^] # Re: Intéressant

        Posté par  . Évalué à 3.

        D'après les commentateurs, SpaceX a tendance à radiner un peu avec l'altitude de lancement; apparemment sur ce coup la marge était un peu trop faible.

        D'après ce que j'ai lu dans la brève de Nextinpact, c'est fait exprès pour s'assurer que les satellites, dont le placement sur leur orbite définitive échoue, retombent rapidement et se désintègrent complètement sans laisser de débris.

        • [^] # Re: Intéressant

          Posté par  . Évalué à 5.

          Pourquoi pas, mais je trouve ça assez louche quand même : sur leur orbite "normale" (dans les 550km), un satellite défaillant devrait tomber en quelques années (Wikipédia dit 5 ans). Dans quelle mesure Space X mettrait-ils ses satellites sur une orbite bien plus basse (qui nécessite donc plus d'ergols pour se mettre en place) juste pour éviter que quelques satellites défectueux soient désorbités plus vite? La question serait évidemment différente si les orbites étaient plus hautes.

          Après, l'activité de Space X (et surtout de Starlink) est tellement controversée qu'ils doivent peut-être montrer qu'ils font des efforts. J'ai quand même l'impression ici que le deuxième étage du Falcon 9 a lâché les satellites plus bas que d'habitude, donc il s'agissait aussi peut-être d'un test quelconque. Je n'y connais pas grand chose en trajectoire de lancement, mais apparemment beaucoup de spécialistes disaient que 220 km c'était très bas, et que 250 km c'était normalement beaucoup plus sûr. Je n'en sais pas plus que ça, à part qu'il ne s'agit pas d'un problème de lanceur (tout était normal, c'était volontaire).

          • [^] # Re: Intéressant

            Posté par  (site web personnel) . Évalué à 5.

            Sans en être totalement sûr, je pense que ces satellites venaient d'être lancés et étaient sur une orbite de transfert. Ils n'ont simplement pas eu le temps de rejoindre leur orbite définitive, à cause de la dilatation de l'atmosphère terrestre.

            Les premiers lancements avaient créé une polémique chez les astronomes pro et amateurs, ces satellites étant très visibles pendant cette phase de transfert. Ensuite ça s’atténuait.

            • [^] # Re: Intéressant

              Posté par  . Évalué à 3.

              Je n'arrive pas à trouver une base de données avec les caractéristiques des orbites de transfert pour les différents lancements de satellites Starlink. La question, c'est est-ce que le dernier lancement était particulier; j'avais lu qu'en effet l'orbite de transfert avait un périgée plus bas que d'habitude, et que c'était ça, en conjonction avec la trainée atmosphérique augmentée, qui avait causé la perte des satellites. Mais il faudrait vérifier en comparant avec les lancements précédents. Et si c'était le cas, on peut se demander pourquoi lancer plus bas que d'habitude, je n'ai pas l'impression que gagner un peu de masse de carburant vaut le coup si le payload est le même.

              D'ailleurs, c'est presque étonnant qu'ils n'aient perdu que 40 satellites (sur combien, 52?). Ça devait vraiment être très très limite. Je n'ai pas compris s'ils avaient choisi les 12 qui s'étaient sauvés ou si par hasard certains avaient réussi là où d'autres avaient échoué. Dans tous les cas, il est probable que pour ceux qui ont réussi à atteindre leur orbite, la dépense de carburant a réduit substantiellement leur durée de vie.

  • # Autre source

    Posté par  (site web personnel) . Évalué à 3.

  • # Vive les tempêtes solaires...

    Posté par  . Évalué à 10.

    … j'espère qu'il y en aura encore beaucoup :
    DLFP: megaconstellations-de-satellites-vs-astrophysique-1-0

    • [^] # Re: Vive les tempêtes solaires...

      Posté par  . Évalué à 0.

      Mouais. C'est un combat perdu d'avance, et j'ai du mal à le trouver particulièrement pertinent.

      • La qualité du ciel nocturne est déja largement dégradée par la pollution lumineuse. Pour l'astronomie amateur, c'est déja foutu.
      • Pour la photographie amateur, il est trivial d'éliminer les trames avec des objets mobiles. C'est un ouinouin inaudible : le développement logiciel nécessaire semble très facile (si on compare avec la complexité des traitements nécessaires à l'astrophoto), et en plus la perte de qualité est probablement négligeable (il n'est pas nécessaire d'éliminer toute la trame, juste les quelques pixels allumés). Évidemment, pour l'argentique, ça ne marche pas (mais bon, l'astrophoto argentique amateur, c'est quand même pas un hobby très fréquent).
      • Pour l'astrophysique professionnelle, le problème semble un peu plus compliqué. Il semble que certaines observations sont tellement difficiles que les algos d'analyse d'image sont très sensibles, et qu'ils doivent être repensés pour gérer l'intrusion d'objets lumineux (notamment à cause du bruit CCD).

      Globalement, les conséquences ne semblent pas si catastrophiques que ça. Les algorithmes d'analyse d'image devront être repensés pour gérer cette nouvelle source de bruit, mais ils gèrent déja de très nombreuses sources de bruit. Les observations affectés sont très spécifiques, puisque que par exemple sur un gros grossissement le passage d'un satellite sera très improbable. Les effets ne sont pas complètement nouveaux, puisque le passage d'objets lumineux n'est pas exceptionnel (satellites existants, débris spatiaux, rentrées dans l'atmosphère d'objets naturels ou artificiels, etc), et les astrophysiciens savent déja éliminer les artefacts dans leurs observations. Les conséquences pour les amateurs seront aussi réduites : les astrophotographes utiliseront des algorithmes pour retirer les objets mobiles, les observations directes ne seront pas affectées (de temps en temps un satellite traversera le champ, et c'est tout). À l'oeil nu, on ne verra pas grand chose : sous la plupart des ciels les satellites Starlink sont invisibles à cause de la pollution lumineuse (à moins d'être sur leur orbite de transfert, mais ça ne dure que quelques heures); les satellites en orbite basse ne sont brillants que quand ils sont éclairés par le soleil (donc le soir et le matin, pas quand le ciel est bien noir), leur magnitude n'est pas très élevée (ils ne sont pas éblouissants).

      Bref, dans toutes ces jérémiades, il y a beaucoup de "ouinouin", mais ça ne me semble pas très sérieux. Les seuls qui vont devoir faire quelque chose sont les astronomes professionnels, et en effet il y aura des coûts induits avec le développement de nouveaux algorithmes de traitement d'image, mais la nuisance semble gérable quand on compare avec tout ce qui nuit aux observations : la météo, les perturbations atmosphériques, la pollution lumineuse, ou la lune.

      La pollution électromagnétique sur certaines longueurs d'onde semble bien plus problématique, d'ailleurs. Mais je ne vois pas comment l'humanité peut envisager de se priver d'exploiter le spectre électromagnétique pour des raisons d'observation de l'univers. J'imagine d'ailleurs qu'il serait envisageable d'éteindre automatiquement les satellites au-dessus de certaines zones.

  • # le luxe n'a aucune limite!

    Posté par  . Évalué à 9.

    Je sais bien que les milliardaires ont leurs excentricites, mais quand même, se faire sa propre nuit des étoiles filantes sur mesure, fallait oser!

    ------> [ ]

Suivre le flux des commentaires

Note : les commentaires appartiennent à celles et ceux qui les ont postés. Nous n’en sommes pas responsables.