Ah, je crois que je devine la subtilité. En descendant la chaîne des workflows, ou plutôt la chaîne des règles et des workflows, on peut découper sur chaque test, ce qui fait au final beaucoup moins de pavés qu'en quadrillant l'espace entier.
Je ne suis pas sûr de comprendre, et ne lisant pas la Haskell, je me demande si tu peux m'éclairer. Est-ce un genre de dichotomie que tu fais ? Sur quel critère découpes-tu ou non un pavé de valeurs ?
La première partie ne pose pas de problème particulier. La seconde en revanche, c'est une autre paire de manches.
Mon idée pour optimiser cela consiste à réduire le nombre de cas que l'on teste. En effet, les workflows ont des règles basées sur des seuils, et fondamentalement, il suffit de balayer l'ensemble des combinaisons de ces valeurs seuils pour pouvoir déterminer ce qui arrivera à l'importe quelle combinaison entre ces valeurs.
Il faut faire attention à la façon dont on définit les seuils en question, parce que les définitions utilisent les opérateurs < et > qui ne sont pas l'opposé l'un de l'autre. Bref, il y a un détail important que je ne donnerai pas ici.
Toujours est-il que, pour mes données, ça me ramène à 6,4 × 10⁹ = 6,4 milliards de possibilités. Et c'est un peu long à tester : à un rythme de l'ordre de 150.000 combinaisons par seconde, ça va me prendre une douzaine d'heures. Il faut que je trouve mieux que ça…
Pour ce problème, j'ai considéré qu'on n'était pas vraiment en deux dimensions, mais plutôt en trois. Parce que l'état d'un creuset, ce n'est pas seulement sa position sur le terrain, mais aussi le nombre de cases qu'il a parcouru dans une direction donnée… ce qui se représente également très bien par un nombre, que je considère comme une troisième coordonnée.
Ça permet de se ramener à un problème de parcours de proche en proche, avec une définition bien particulière des voisins d'un point.
Voici le code :
fromcollections.abcimportIterable,Iterator,SequencefromtypingimportSelfimportnumpyasnpimportnumpy.typingasnptimportaocclassCity:def__init__(self,array:Sequence[Sequence[int]]):self.matrix:npt.NDArray[np.ubyte]=np.array(array,dtype=np.ubyte)self.ly,self.lx=self.matrix.shape@classmethoddefimport_lines(cls,lines:Iterable[str])->Self:array=[[int(char)forcharinlineifchar!='\n']forlineinlines]returncls(array)defwalk(self,minturn,maxturn)->int:# We will be using a matrix with three coordinates:# * z indicates how many steps were made in which direction:# - z < 0: starting, no previous steps!# - 0 ≤ z < maxturn: 1 to maxturn steps up ↑# - maxturn ≤ z < 2*maxturn: 1 to maxturn steps down ↓# - 2*maxturn ≤ z < 3*maxturn: 1 to maxturn steps left ←# - 3*maxturn ≤ z < 4*maxturn: 1 to maxturn steps right →visits:npt.NDArray[np.int_]=np.full((4*maxturn,self.ly,self.lx),-1,dtype=np.int_)def_neighs(z:int,y:int,x:int)->Iterator[tuple[int,int,int]]:"""Yield all directly accessible neighbors of a point, including points outside the limits of the city."""ifz<0:# Special case for startyield(0*maxturn,y-1,x)yield(1*maxturn,y+1,x)yield(2*maxturn,y,x-1)yield(3*maxturn,y,x+1)returndiv,mod=divmod(z,maxturn)ifdiv==0:ifmod<maxturn-1:yield(z+1,y-1,x)ifmod+1>=minturn:yield(2*maxturn,y,x-1)yield(3*maxturn,y,x+1)returnifdiv==1:ifmod<maxturn-1:yield(z+1,y+1,x)ifmod+1>=minturn:yield(2*maxturn,y,x-1)yield(3*maxturn,y,x+1)returnifdiv==2:ifmod+1>=minturn:yield(0*maxturn,y-1,x)yield(1*maxturn,y+1,x)ifmod<maxturn-1:yield(z+1,y,x-1)returnifdiv==3:ifmod+1>=minturn:yield(0*maxturn,y-1,x)yield(1*maxturn,y+1,x)ifmod<maxturn-1:yield(z+1,y,x+1)returndefneighs(z:int,y:int,x:int)->Iterator[tuple[int,int,int]]:forz_,y_,x_in_neighs(z,y,x):if0<=x_<self.lxand0<=y_<self.ly:yieldz_,y_,x_currents:dict[tuple[int,int,int],int]={(-1,0,0):0}whilelen(currents)>0:nexts:dict[tuple[int,int,int],int]={}forcurrent_pos,current_totalincurrents.items():fornext_posinneighs(*current_pos):z,y,x=next_posloss=self.matrix[y,x]next_total=current_total+lossif(visits[next_pos]<0ornext_total<visits[next_pos]):visits[next_pos]=next_totalnexts[next_pos]=next_totalcurrents=nextsloss=-1fordivinrange(4):formodinrange(minturn-1,maxturn):z=div*maxturn+modpos=(z,self.ly-1,self.lx-1)ifloss<0or0<visits[pos]<loss:loss=visits[pos]returnlossdefpart1(lines:aoc.Data)->int:"""Solve puzzle part 1: determine the minimum total heat loss from start to end, using normal crucibles"""city=City.import_lines(lines)returncity.walk(1,3)defpart2(lines:aoc.Data)->int:"""Solve puzzle part 2: determine the minimum total heat loss from start to end, using ultra crucibles"""city=City.import_lines(lines)returncity.walk(4,10)
importdataclassesimportenumimportioimportrefromcollections.abcimportIterable,IteratorfromtypingimportClassVar,Selfimportnumpyasnpimportnumpy.typingasnptimportaocCoords=tuple[int,int]Vector=tuple[int,int]classDirection(enum.Enum):UP='U'DOWN='D'LEFT='L'RIGHT='R'@propertydefvector(self)->Vector:ifselfisself.UP:return(-1,0)ifselfisself.DOWN:return(1,0)ifselfisself.LEFT:return(0,-1)ifselfisself.RIGHT:return(0,1)assertFalse,"we covered all cases"deftranslate(self,position:Coords)->Coords:y,x=positiondy,dx=self.vectorreturny+dy,x+dx@dataclasses.dataclass(frozen=True)classInstruction:direction:Directionlength:intimport_pattern1:ClassVar[re.Pattern]=re.compile(r'^([UDLR]) (\d+) \(#[0-9A-Fa-f]{6}\)\n?$')import_pattern2:ClassVar[re.Pattern]=re.compile(r'^[UDLR] \d+ \(#([0-9A-Fa-f]{5})([0-9A-Fa-f])\)\n?$')@classmethoddefimport_line1(cls,line:str)->Self:if(m:=cls.import_pattern1.match(line))isnotNone:returncls(Direction(m[1]),int(m[2]))raiseValueError("invalid instruction line")@classmethoddefimport_line2(cls,line:str)->Self:if(m:=cls.import_pattern2.match(line))isnotNone:length=int(m[1],16)ifm[2]=='0':direction=Direction.RIGHTelifm[2]=='1':direction=Direction.DOWNelifm[2]=='2':direction=Direction.LEFTelifm[2]=='3':direction=Direction.UPelse:raiseValueError("invalid instruction line")returncls(direction,length)raiseValueError("invalid instruction line")defapply(self,position:Coords)->Coords:y,x=positiondy,dx=self.direction.vectorreturny+self.length*dy,x+self.length*dxclassTerrain1:def__init__(self,instructions:Iterable[Instruction])->None:position:Coords=(0,0)excavated:set[Coords]={(0,0)}forinstructionininstructions:for_inrange(instruction.length):position=instruction.direction.translate(position)excavated.add(position)ymin,ymax=0,0xmin,xmax=0,0for(y,x)inexcavated:ymin=min(ymin,y)ymax=max(ymax,y)xmin=min(xmin,x)xmax=max(xmax,x)# Time to write a terrain matrix# It needs to span the entire excavated area, plus a margin:# * vertically: from ymin - 1 to ymax + 1 included;# * horizontally: fron xmin - 1 to xmax + 1 included.self.matrix:npt.NDArray[np.bool_]=np.zeros((ymax-ymin+3,xmax-xmin+3),dtype=np.bool_)self.ly,self.lx=self.matrix.shapefor(y,x)inexcavated:y=y-ymin+1x=x-xmin+1self.matrix[y,x]=Truedefdig_pool(self)->None:defneighs(coords:Coords)->Iterator[Coords]:def_neighs(coords:Coords):y,x=coordsyieldy,x-1yieldy,x+1yieldy-1,xyieldy+1,xfory,xin_neighs(coords):if0<=y<self.lyand0<=x<self.lx:yieldy,xoutside=np.zeros_like(self.matrix)visited=np.zeros_like(self.matrix)start=(0,0)outside[start]=Truevisited[start]=Truecurrents:set[Coords]={(0,0)}whilelen(currents)>0:nexts:set[Coords]=set()forpositionincurrents:forneighinneighs(position):ifvisited[neigh]:continueifnotself.matrix[neigh]:outside[neigh]=Truenexts.add(neigh)visited[neigh]=Truecurrents=nextsforposition,_innp.ndenumerate(self.matrix):# type: ignoreifnotoutside[position]:self.matrix[position]=Truedefarea(self)->int:returnnp.sum(self.matrix)# type: ignoredef__str__(self)->str:s=io.StringIO()forlineinself.matrix:forexcavatedinline:ifexcavated:s.write('█')else:s.write(' ')s.write('\n')returns.getvalue()@dataclasses.dataclass(frozen=True)classHSegment:x1:intx2:inty:intdefcuts(self,x:int)->bool:returnself.x1<=x<=self.x2def__len__(self)->int:returnself.x2-self.x1+1@dataclasses.dataclass(frozen=True)classVSegment:x:inty1:inty2:intdefcuts(self,y:int)->bool:returnself.y1<=y<=self.y2def__len__(self)->int:returnself.y2-self.y1+1classTerrain2:def__init__(self,instructions:Iterable[Instruction]):hsegments:set[HSegment]=set()vsegments:set[VSegment]=set()ys:set[int]={0,1}xs:set[int]={0,1}ymin,ymax=0,1xmin,xmax=0,1y,x=0,0forinstructionininstructions:y_,x_=instruction.apply((y,x))ymin,ymax=min(ymin,y_),max(ymax,y_+1)xmin,xmax=min(xmin,x_),max(xmax,x_+1)ys.add(y_)ys.add(y_+1)xs.add(x_)xs.add(x_+1)ifinstruction.directionisDirection.UP:vsegments.add(VSegment(x,y_,y))elifinstruction.directionisDirection.DOWN:vsegments.add(VSegment(x,y,y_))elifinstruction.directionisDirection.LEFT:hsegments.add(HSegment(x_,x,y))elifinstruction.directionisDirection.RIGHT:hsegments.add(HSegment(x,x_,y))else:assertFalse,"we covered all cases for instruction direction"y,x=y_,x_ys.add(ymin-1)ys.add(ymax+1)xs.add(xmin-1)xs.add(xmax+1)self.ys=sorted(ys)self.xs=sorted(xs)self.matrix:npt.NDArray[np.bool_]=np.zeros((len(ys)-1,len(xs)-1),dtype=np.bool_)self.lj,self.li=self.matrix.shapeforhsegmentinhsegments:j=self.ys.index(hsegment.y)foriinrange(self.xs.index(hsegment.x1),self.xs.index(hsegment.x2)+1):self.matrix[j,i]=Trueforvsegmentinvsegments:i=self.xs.index(vsegment.x)forjinrange(self.ys.index(vsegment.y1),self.ys.index(vsegment.y2)+1):self.matrix[j,i]=Truedefdig_pool(self)->None:defneighs(coords:Coords)->Iterator[Coords]:def_neighs(coords:Coords):j,i=coordsyieldj,i-1yieldj,i+1yieldj-1,iyieldj+1,iforj,iin_neighs(coords):if0<=j<self.ljand0<=i<self.li:yieldj,ioutside=np.zeros_like(self.matrix)visited=np.zeros_like(self.matrix)start=(0,0)outside[start]=Truevisited[start]=Truecurrents:set[Coords]={(0,0)}whilelen(currents)>0:nexts:set[Coords]=set()forpositionincurrents:forneighinneighs(position):ifvisited[neigh]:continueifnotself.matrix[neigh]:outside[neigh]=Truenexts.add(neigh)visited[neigh]=Truecurrents=nextsforposition,_innp.ndenumerate(self.matrix):# type: ignoreifnotoutside[position]:self.matrix[position]=Truedefarea(self)->int:count=0forjinrange(self.lj):foriinrange(self.li):ifself.matrix[j,i]:count+=((self.ys[j+1]-self.ys[j])*(self.xs[i+1]-self.xs[i]))returncountdef__str__(self)->str:s=io.StringIO()forlineinself.matrix:forexcavatedinline:ifexcavated:s.write('█')else:s.write(' ')s.write('\n')returns.getvalue()defpart1(lines:aoc.Data)->int:"""Solve puzzle part 1: determine the sum of stuff"""terrain=Terrain1(Instruction.import_line1(line)forlineinlines)terrain.dig_pool()returnterrain.area()defpart2(lines:aoc.Data)->int:"""Solve puzzle part 2: determine the sum of staff"""terrain=Terrain2(Instruction.import_line2(line)forlineinlines)terrain.dig_pool()returnterrain.area()
Pour la première partie, je fais du remplissage, voici les étapes :
J'alloue une matrice suffisante pour contenir tout le tracé – oui, il y a une étape pour déterminer la taille nécessaire, mais c'est sans intérêt à dérailler –, plus une marge d'une unité. En fait, pas une matrice mais trois, à valeurs booléennes : le terrain, une matrice qui indiquera si on est à l'extérieur du tracé, et une matrice qui indiquera si on a déjà visité chaque point.
Je trace les tranchées.
Je pars du point en haut à gauche, dont je suis certain qu'il est hors du bassin puisqu'il fait partie de la marge sus-mentionnée. De proche en proche, je remplis l'extérieur du bassin dans la seconde de mes matrices. C'est beaucoup plus facile que d'essayer de remplir directement l'intérieur. La troisième matrice sert à cette étape, pour ne pas passer indéfiniment sur les mêmes points.
Je remplis l'intérieur du bassin dans la matrice du terrain, la seule que je vais garder.
Trouver l'aire, c'est trivial.
Deuxième partie
Pareil. Comment ça, pareil, alors que les coordonnées sont beaucoup trop grandes pour pouvoir faire ça avec des matrices ? Eh bien, on n'a pas besoin de toutes les coordonnées, voyez-vous. On a seulement besoin de celles où commencent ou finissent des tranchées en fait.
Bref, je me construis une matrice donc les cases ont des dimensions virtuelles carrément variables. Ensuite, on se ramène à l'algorithme précédent, avec un détail de pondération pour le calcul de l'aire.
En effet. Mais c'est moins que 100×100 pour chaque galet, tout simplement parce que peu importe la position de chaque galet, ils se ressemblent tous au point d'être interchangeables. C'est plutôt la combinaison de 2.000 parmi 10.000 qui majore le nombre de possibilités. Ça fait quand même vachement beaucoup trop.
D'accord, j'ai été un peu rapide dans mon interprétation d'hier, on avait simplement focalisé la lumière du soleil vers le chambre de fusion.
Oui, justement, j'ai comme l'impression que ce n'est pas parce qu'on a remis en service la production de lave que les forges de l'île du métal vont se remettre en marche toutes seules et que les lutins arriveront à produire des pièces de rechange sans aide. Et même alors quelque chose me dit que même avec des pièces de rechange toutes neuves, les lutins de l'île du désert vont avoir besoin de notre aide pour réparer leurs machines et pour collecter du sable. Sur l'île de l'île, on risque aussi d'avoir besoin d'assistance pour relancer la filtration de l'eau et l'envoyer sur l'île de la neige. Quand à l'île de la neige, je pense que la machine à neige ne va pas recevoir directement cette eau, et que les lutins ont sûrement fini par oublier comment cette machine.
Si les lutins savaient se débrouiller tout seuls, ça se saurait depuis le temps. Et là, on vient de relancer un processus vachement de pure ingénierie lutinesque donc vachement complexe et instable. On n'est pas encore sortis de l'auberge.
Pourquoi utilisez-vous des dictionnaires plutôt qu'un tableau ? On a 256 boîtes, indexées par un entier de 0 à 255, ça semble naturel de représenter ça par un tableau de 256 boîtes non ?
Mon code :
fromenumimportEnumfromdataclassesimportdataclassimportioimportrefromtypingimportOptional,Selfimportaocdefhash_(s:bytes)->int:value=0forbins:value+=bvalue*=17value%=256returnvalue@dataclass(frozen=True)classLens:focal:intlabel:bytesdef__str__(self)->str:return'%s%d'%(self.label.decode(),self.focal)classOperation(Enum):REM='-'PUT='='classInstruction:def__init__(self,label:bytes,op:Operation,arg:Optional[int]=None):self.label=labelself.box=hash_(label)self.op=opself.arg=argpattern=re.compile('^(.+)([=-])(.*)$')@classmethoddefimport_word(cls,word:str)->Self:if(m:=cls.pattern.match(word))isnotNone:label=m[1].encode('ascii')op=Operation(m[2])arg=Noneif(s:=m[3])!='':arg=int(s)returncls(label,op,arg)raiseValueError('cannot parse instruction')classBox:def__init__(self)->None:self.lenses:list[Lens]=[]defremove(self,label:bytes)->None:fori,lensinenumerate(self.lenses):iflens.label==label:delself.lenses[i]returndefput(self,new_lens:Lens):fori,lensinenumerate(self.lenses):iflens.label==new_lens.label:self.lenses[i]=new_lensreturnself.lenses.append(new_lens)defis_empty(self)->bool:returnlen(self.lenses)==0def__str__(self)->str:return' '.join("[%s]"%str(lens)forlensinself.lenses)classMachine:def__init__(self)->None:self.boxes:tuple[Box]=tuple(Box()for_inrange(256))# type: ignoredef__str__(self)->str:s=io.StringIO()fori,boxinenumerate(self.boxes):ifnotbox.is_empty():s.write('Box %d: %s\n'%(i,str(box)))returns.getvalue()defapply(self,instruction:Instruction)->None:box=self.boxes[instruction.box]ifinstruction.opisOperation.REM:box.remove(instruction.label)returnifinstruction.opisOperation.PUTandinstruction.argisnotNone:lens=Lens(instruction.arg,instruction.label)box.put(lens)returnraiseValueError("invalid instruction")defpower(self)->int:total=0forbox_number,boxinenumerate(self.boxes):forlens_number,lensinenumerate(box.lenses):total+=(box_number+1)*(lens_number+1)*lens.focalreturntotaldefpart1(lines:aoc.Data)->int:"""Solve puzzle part 1: determine the sum of hash value of all instructions"""total=0forlineinlines:forpartinline.rstrip().split(','):h=hash_(part.encode('ascii'))total+=hash_(part.encode('ascii'))returntotaldefpart2(lines:aoc.Data)->int:"""Solve puzzle part 2: determine the sum of staff"""instructions=(Instruction.import_word(part)forlineinlinesforpartinline.rstrip().split(','))machine=Machine()forinstructionininstructions:machine.apply(instruction)returnmachine.power()
En voyant la partie 2, j'ai immédiatement pensé deux choses :
il faudrait que j'optimise un minimum ma fonction de cycle d'essorage, parce qu'on va l'appeler un certain nombre de fois, même si ce ne sera pas un milliard de fois ;
je vais finir par tomber sur un cycle de cycle en effet.
Ce dernier point est une certitude absolue. Pourquoi donc ? Parce qu'il y a 100 ligne et 100 colonnes, donc moins de 100 × 100 = 10.000 positions possibles des pierres qui roulent. En fait, bien moins que ça, parce que les positions occupées par les pierres qui ne roulent pas ne sont pas utilisables, et que seules les dispositions stables par le nord – on se comprend – sont admissibles.
Bref, en moins de 10.000 cycles je suis sûr d'avoir au moins deux fois la même disposition. Et retomber sur une disposition déjà vue, c'est aussi retomber sur la disposition suivante au cycle d'après, etc.
Chez moi ça cycle en 64 cycles.
Le code :
fromcollections.abcimportIterable,SequencefromtypingimportOptional,Selfimportenumimportioimportitertoolsimportnumpyasnpimportnumpy.typingasnptimportaocclassTile(enum.Enum):EMPTY='.'CUBE='#'ROUND='O'def__str__(self)->str:ifselfisself.EMPTY:return' 'ifselfisself.CUBE:return'■'ifselfisself.ROUND:return'○'assertFalseclassPlatform:def__init__(self,array:Sequence[Sequence[Tile]]):self.matrix:npt.NDArray[np.object_]=np.array(array)self.ly,self.lx=self.matrix.shapeself.spaces_horiz:list[list[range]]=[]self.spaces_vert:list[list[range]]=[]foryinrange(self.ly):self.spaces_horiz.append([])xs=[-1]+[xforxinrange(self.lx)ifself.matrix[y,x]isTile.CUBE]+[self.lx]forx1,x2initertools.pairwise(xs):ifx2-x1>1:self.spaces_horiz[-1].append(range(x1+1,x2))forxinrange(self.lx):self.spaces_vert.append([])ys=[-1]+[yforyinrange(self.ly)ifself.matrix[y,x]isTile.CUBE]+[self.ly]fory1,y2initertools.pairwise(ys):ify2-y1>1:self.spaces_vert[-1].append(range(y1+1,y2))@classmethoddefimport_lines(cls,lines:Iterable[str])->Self:array=[]forlineinlines:array.append([Tile(char)forcharinline.rstrip()])returncls(array)def__str__(self)->str:s=io.StringIO()forlineinself.matrix:fortileinline:s.write(str(tile))s.write('\n')returns.getvalue()defpositions(self):returntuple((y,x)for(y,x),valueinnp.ndenumerate(self.matrix)ifvalueisTile.ROUND)deftilt_north(self)->None:forxinrange(self.lx):column=self.matrix[:,x]forspaceinself.spaces_vert[x]:rounds=0foryinspace:ifcolumn[y]isTile.ROUND:rounds+=1column[y]=Tile.EMPTYforyinrange(space.start,space.start+rounds):column[y]=Tile.ROUNDdeftilt_south(self)->None:forxinrange(self.lx):column=self.matrix[:,x]forspaceinself.spaces_vert[x]:rounds=0foryinspace:ifcolumn[y]isTile.ROUND:rounds+=1column[y]=Tile.EMPTYforyinrange(space.stop-1,space.stop-1-rounds,-1):column[y]=Tile.ROUNDdeftilt_west(self)->None:foryinrange(self.ly):row=self.matrix[y]forspaceinself.spaces_horiz[y]:rounds=0forxinspace:ifrow[x]isTile.ROUND:rounds+=1row[x]=Tile.EMPTYforxinrange(space.start,space.start+rounds):row[x]=Tile.ROUNDdeftilt_east(self)->None:foryinrange(self.ly):row=self.matrix[y]forspaceinself.spaces_horiz[y]:rounds=0forxinspace:ifrow[x]isTile.ROUND:rounds+=1row[x]=Tile.EMPTYforxinrange(space.stop-1,space.stop-1-rounds,-1):row[x]=Tile.ROUNDdefcycle(self)->None:self.tilt_north()self.tilt_west()self.tilt_south()self.tilt_east()defload_north(self)->int:load=0for(y,x),tileinnp.ndenumerate(self.matrix):iftileisTile.ROUND:load+=self.ly-yreturnloaddefpart1(lines:aoc.Data)->int:"""Solve puzzle part 1: determine the sum of stuff"""platform=Platform.import_lines(lines)platform.tilt_north()returnplatform.load_north()defpart2(lines:aoc.Data)->int:"""Solve puzzle part 2: determine the sum of staff"""platform=Platform.import_lines(lines)position_cycles:dict[Tuple[Tuple[int]],int]={}target=1000000000first:Optional[int]=Noneforcycleinrange(platform.ly*platform.ly):positions=platform.positions()ifpositionsinposition_cycles:first=position_cycles[positions]breakposition_cycles[positions]=cycleplatform.cycle()else:raiseValueError("cannot find a cycle‽")assertfirstisnotNone# `first` is the number of a cycle when, /before/ cycling, the positions# were the same as now.# `cycle` is the number of current cycle, /before/ cycling.loop=cycle-firstremaining=target-firstremaining%=loopfor_inrange(remaining):platform.cycle()returnplatform.load_north()
Après des années à utiliser des pilotes spécifiques, les fabricants d'imprimantes de sont enfin mis ensemble pour concevoir une, enfin deux normes inspirées de CUPS. Une le la compatibilité avec les appareils Apple et une pour Android. CUPS prend en charge les deux.
Concrètement, ça veut dire que si tu prends une imprimante qui prend en charge AirPrint ou Mopria, ça marchera juste sans rien avoir à faire. Et c'est le cas de la grande majorité des imprimantes récentes, donc tu es assez libre dans ton choix.
Maintenant, si par hasard tu veux éviter de contribuer au modèle de financement par le consommable, avec des imprimantes vendues presque à perte et de l'encre vendue plus cher que le Chanel n°5, tu peux choisir une imprimante à réservoir d'encre. Ça coûte plus cher à l'achat, mais l'encre fournie avec correspond à un volume d'impression qui, en cartouches, coûterait déjà plus cher que le prix total de l'imprimante !
Question bête : n'existe-t-il pas des casses-têtes légaux ? Quand une compagnie vous vend un produit rendu volontairement défectueux, n'a-t-on donc aucune loi qui puisse la faire condamner ?
Ça s'appelle un vice caché. Dans le cas présent, ce serait reconnu sans aucune difficulté. Avec en prime une mauvaise foi patente de la part du fabricant. Bref, si c'était en France, la SNCF pourrait le contraindre à payer des dommages-intérêts suffisants pour les mettre en faillite.
fromcollections.abcimportIterablefromtypingimportOptional,SelffromenumimportEnumimportioimportaocCoords=tuple[int,int]classTerrain(Enum):ASH='.'ROCK='#'def__str__(self)->str:ifselfisself.ASH:return' 'ifselfisself.ROCK:return'▒'raiseValueError('invalid terrain value')classPattern:def__init__(self,array:Iterable[Iterable[Terrain]]):self.matrix=list(list(line)forlineinarray)self.ly=len(self.matrix)self.lx=len(self.matrix[0])@classmethoddefimport_lines(cls,lines:Iterable[str])->Self:returncls((Terrain(char)forcharinline.rstrip())forlineinlines)def__getitem__(self,coords:Coords)->Terrain:y,x=coordsreturnself.matrix[y][x]def__str__(self)->str:s=io.StringIO()forlineinself.matrix:forterraininline:s.write(str(terrain))s.write('\n')returns.getvalue()defy_reflection_errors(self,y:int)->int:"""Count the number of errors in a horizontal reflection between y - 1 and y. Return 0, 1 or 2 (meaning many)."""errors=0foriinrange(min(y,self.ly-y)):y1=y-1-iy2=y+iforxinrange(self.lx):errors+=self[y1,x]!=self[y2,x]iferrors>=2:returnerrorsreturnerrorsdefx_reflection_errors(self,x:int)->int:"""Count the number of errors in a vertical reflection between x - 1 and x. Return 0, 1 or 2 (meaning many)."""errors=0foriinrange(min(x,self.lx-x)):x1=x-1-ix2=x+iforyinrange(self.ly):errors+=self[y,x1]!=self[y,x2]iferrors>=2:returnerrorsreturnerrorsdefy_reflection1(self)->Optional[int]:foryinrange(1,self.ly):ifself.y_reflection_errors(y)==0:returnyreturnNonedefx_reflection1(self)->Optional[int]:forxinrange(1,self.lx):ifself.x_reflection_errors(x)==0:returnxreturnNonedefy_reflection2(self)->Optional[int]:foryinrange(1,self.ly):ifself.y_reflection_errors(y)==1:returnyreturnNonedefx_reflection2(self)->Optional[int]:forxinrange(1,self.lx):ifself.x_reflection_errors(x)==1:returnxreturnNonedefpart1(lines:aoc.Data)->int:"""Solve puzzle part 1: determine the sum of perfect reflection columns and 100× that of perfect reflection lines."""total=0fori,groupinenumerate(aoc.group_lines(lines)):pattern=Pattern.import_lines(group)if(x:=pattern.x_reflection1())isnotNone:total+=xelif(y:=pattern.y_reflection1())isnotNone:total+=100*yelse:raiseValueError('pattern without reflection‽')returntotaldefpart2(lines:aoc.Data)->int:"""Solve puzzle part 1: determine the sum of imperfect reflection columns and 100× that of imperfect reflection lines."""total=0fori,groupinenumerate(aoc.group_lines(lines)):pattern=Pattern.import_lines(group)if(x:=pattern.x_reflection2())isnotNone:total+=xelif(y:=pattern.y_reflection2())isnotNone:total+=100*yelse:raiseValueError('pattern without reflection‽')returntotal
La première partie ne pose aucune difficulté particulière. Pour la seconde, l'énoncé suggère presque une implémentation directe : essayer de changer les points, un par un, et chercher à chaque fois si on trouve une réflexion. Inutile de dire que ça risque de prendre un peu trop de temps.
En reformulant le problème, on peut trouver une solution plus intelligente : on ne cherche plus une réflexion parfaite mais une réflexion avec exactement une erreur. Voilà, vous avez l'algorithme, je vous laisse. :-)
Ah, je crois que j'ai trouvé ce qui consomme de la mémoire dans ton cache. Et qui doit peut-être pas mal le ralentir aussi. Tu as self parmi les arguments de la fonction sur laquelle le cache travaille.
Intuitivement, je dirais que pour un maximum d'efficacité, il faut minimiser les arguments d'une fonction sur laquelle on veut appliquer un cache. Quitte à définir une fonction auxiliaire locale et que ce soit celle-là qui soit cachée.
Et donc voici ma solution, en python, et là encore, de façon surprenante, PyPy est quasiment équivalent à CPython, malgré les gros gros calculs !
Ça ne m'étonne pas trop. Les gros calculs en question sont surtout des appels de fonctions, des branchements, des tests et des additions d'entiers. Je doute que ça soit les points forts de PyPy, si ?
Bon, voilà quoi. J'ai utilisé un cache, évidemment.
Pour info, avec un coefficient de pliage de 10 et en utilisant CPython, j'obtiens une réponse 1 498 094 344 344 361 041 914 985 222 578 (1,5×10³⁰ soit 1,5 millier de milliards de milliards de milliards) en 3,3 secondes et une consommation mémoire de 22 Mio :
% /usr/bin/time -v bin/12.py -2 < in/12.in
Solving part 2:
1498094344344361041914985222578
Command being timed: "bin/12.py -2"
User time (seconds): 2.86
System time (seconds): 0.41
Percent of CPU this job got: 99%
Elapsed (wall clock) time (h:mm:ss or m:ss): 0:03.29
Average shared text size (kbytes): 0
Average unshared data size (kbytes): 0
Average stack size (kbytes): 0
Average total size (kbytes): 0
Maximum resident set size (kbytes): 22772
Average resident set size (kbytes): 0
Major (requiring I/O) page faults: 0
Minor (reclaiming a frame) page faults: 111390
Voluntary context switches: 1
Involuntary context switches: 305
Swaps: 0
File system inputs: 0
File system outputs: 0
Socket messages sent: 0
Socket messages received: 0
Signals delivered: 0
Page size (bytes): 4096
Exit status: 0
si on a des solutions, alors on sait que l'indice suivant pouvait être décalé d'un cran > vers la gauche, donc on peut multiplier par deux !
sinon on teste le chemin avec une source endommagée.
Ça va beaucoup plus vite, beaucoup beaucoup.
Mais c'est faux, il va falloir encore plus d'intelligence, de ruse, pour comprendre les effets de bords, pourquoi ça ne fonctionne pas.
En fait je ne vois pas pourquoi ce serait vrai. Si tu as des solutions avec une source inconnue donnée considérée comme en bon état, il n'y a aucune raison qu'en prenant ces solutions, et en les décalant d'un cran vers la gauche, ça corresponde toujours au schéma de la ligne donnée.
Ayé, j'ai résolu la partie 2. Mais je ne suis pas du tout satisfait de ma solution, c'est super efficace mais j'ai l'impression d'avoir triché.
Je vous explique. Pour la partie 1, j'ai écrit une fonction récursive qui donne le nombre de possibilités d'arrangements restants étant donné des choix déjà faits sur un certain nombre de sources. Elle prend en entrée un état d'avancement, qui indique :
l'état de fonctionnement de la dernière source considérée (fonctionnelle ou hors service, pas inconnue, comme on va le voir.) ;
la position de la dernière source considérée ;
l'index du groupe courant de sources hors service ;
le nombre de sources hors service actuellement comptabilisée dans le groupe courant.
Si on a considéré toutes les sources, ça renvoie directement 1 si le compte est bon (on a atteint le dernier groupe de sources cassées et il est exactement rempli) et 0 sinon.
Si on n'a pas encore considéré toutes les sources, ça regarde la suivante et ça itère sur ses états possibles (une source en état ne peut être qu'en état, une source cassée ne peut être que cassée et une source en état inconnu peut être les deux, évidemment) :
* pour un état hors service, si la dernière source considérée était en état, ça ouvre un nouveau groupe… si possible, c'est à dire s'il reste des groupes non considérés, sinon on est dans une impasse et ça continue ;
* pour un état en état (hmm…), si la dernière source considérée était hors service, ça vérifie si le compte de sources hors service correspond au groupe courant et si ce n'est pas le cas on est dans une impasse et ça continue ;
* dans les cas où on n'a pas continueé, on appelle la même fonction récursive pour l'étape d'après et on ajoute sa valeur de retour à celle qu'on va renvoyer.
Ce sera peut-être plus clair avec le code :
fromcollections.abcimportIterable,IteratorfromtypingimportOptional,SelffromenumimportEnumclassCondition(Enum):OPE='.'BRK='#'UNK='?'defstates(self)->Iterator[Self]:ifselfisself.OPE:yieldselfelifselfisself.BRK:yieldselfelse:yieldself.OPE# type: ignoreyieldself.BRK# type: ignoreclassCondition(Enum):OPE='.'BRK='#'UNK='?'defstates(self)->Iterator[Self]:ifselfisself.OPE:yieldselfelifselfisself.BRK:yieldselfelse:yieldself.OPE# type: ignoreyieldself.BRK# type: ignoredefarrangements(self)->int:defaux(condition:Condition,spring:int,group:int,count:int)->int:ifspring==len(self.springs)-1:# Last spring has just been accounted for, time to check:# - we are at last group;# - that group is full.if(group==len(self.groups)-1andcount==self.groups[-1]):return1return0# Some springs have not been checked yet.next_spring=spring+1next_group=groupnext_count=countpossibilities=0fornext_conditioninself.springs[next_spring].states():ifnext_conditionisCondition.BRK:ifconditionisCondition.OPE:# Broken spring after an operational one opens# new group… if possible.ifgroup==len(self.groups)-1:# Last group has already been checked and closed:# dead end.continue# We can open next groupnext_group+=1next_count=0# Regardless of previous spring condition, increase current# group count.next_count+=1ifnext_count>self.groups[next_group]:# New current group is overfull: dead end.continueifnext_conditionisCondition.OPE:ifconditionisCondition.BRK:# Operational spring after a broken one closes current# group, time to check group count.ifcount!=self.groups[group]:# Dead endcontinuepossibilities+=aux(next_condition,next_spring,next_group,next_count)returnpossibilitiesreturnaux(Condition.OPE,-1,-1,0)
Bon, pour la partie 2, c'est beaucoup trop long, évidemment. Et donc, faute de trouver une astuce, vu le genre de paramètres de la fonction, j'ai bêtement utilisé un…
En fait, si on y réfléchit un peu, on s'aperçoit qu'il n'est pas utile de stocker toute la liste, ni toute la liste des dérivées, ni toute la liste des dérivées secondes, etc. Tout ce dont on a besoin, c'est :
pendant la phase de calcul des dérivées, la liste des valeurs de la dernière dérivée calculée, pour pouvoir vérifier si elle sont toutes nulles ;
pour pouvoir extrapoler, les dernières valeurs – et pour la seconde partie, les premières valeur – de chaque dérivée jusqu'à la dernière significative.
Pour extrapoler à droite, si vous prenez le temps de vérifier ce qui se passe, il suffit en fait de faire la somme de toutes les dernières valeurs.
Et pour extrapoler à gauche, la somme de toutes les valeurs, en passant en négatif celles d'une ligne sur deux. Ou, pour le dire autrement, la somme du produit des premières valeurs multipliées par moins un élevé à une puissance égale au rang de la ligne d'où vient la valeur courante.
Bon, aujourd'hui nous sommes dans le cas d'un problème avec une solution naïve qui ne passe pas à l'échelle. Mais personnellement, comme l'optimisation de la première partie était quand même assez simple, j'ai fait un strike, la deuxième partie était résolue en changeant simplement une constante.
importitertoolsfromcollections.abcimportIterablefromtypingimportSelfimportaocCoords=tuple[int,int]classImage:def__init__(self,galaxies:Iterable[Coords],factor:int):ys:set[int]=set()xs:set[int]=set()self.galaxies:set[Coords]=set()forgalaxyingalaxies:self.galaxies.add(galaxy)ys.add(galaxy[0])xs.add(galaxy[1])# Space expansion factor: 2 everywhere…self.yfactor=[factor]*(max(ys)+1)self.xfactor=[factor]*(max(xs)+1)# … except where galaxies were found.foryinys:self.yfactor[y]=1forxinxs:self.xfactor[x]=1defdistance(self,g1:Coords,g2:Coords)->int:y1,x1=g1y2,x2=g2ymin,ymax=min(y1,y2),max(y1,y2)xmin,xmax=min(x1,x2),max(x1,x2)return(sum(self.yfactor[y]foryinrange(ymin,ymax))+sum(self.xfactor[x]forxinrange(xmin,xmax)))@classmethoddefimport_lines(cls,lines:Iterable[str],factor:int)->Self:returncls(((y,x)fory,lineinenumerate(lines)forx,charinenumerate(line.rstrip())ifchar=='#'),factor)defpart1(lines:aoc.Data)->int:"""Solve puzzle part 1: determine total galaxy distances considering an expansion factor of 2."""image=Image.import_lines(lines,2)total=0forg1,g2initertools.combinations(image.galaxies,2):total+=image.distance(g1,g2)returntotaldefpart2(lines:aoc.Data)->int:"""Solve puzzle part 2: determine total galaxy distances considering an expansion factor of 1000000."""image=Image.import_lines(lines,1000000)total=0forg1,g2initertools.combinations(image.galaxies,2):total+=image.distance(g1,g2)returntotal
Attention, spoiler, ne lisez pas si vous en êtes à la première partie et que vous ne voulez pas vous gâcher le plaisir de devoir peut-être réfléchir à nouveau pour implémenter la deuxième.
Deuxième partie
En fait l'espace s'étend plus vite que vous ne l'imaginiez. Les lignes et colonnes qui ne contiennent aucune galaxie ne prennent pas deux fois plus de place, mais un million. Bonne chance et attention à l'OOM killer.
[^] # Re: Solution en Haskell.
Posté par 🚲 Tanguy Ortolo (site web personnel) . En réponse au message Advent of Code, jour 19. Évalué à 3.
Ah, je crois que je devine la subtilité. En descendant la chaîne des workflows, ou plutôt la chaîne des règles et des workflows, on peut découper sur chaque test, ce qui fait au final beaucoup moins de pavés qu'en quadrillant l'espace entier.
[^] # Re: Solution en Haskell.
Posté par 🚲 Tanguy Ortolo (site web personnel) . En réponse au message Advent of Code, jour 19. Évalué à 3.
Est-ce que tu découpes donc tout l'espace autour de chaque plan correspondant aux valeurs des seuils des critères des workflows ?
[^] # Re: Solution en Haskell.
Posté par 🚲 Tanguy Ortolo (site web personnel) . En réponse au message Advent of Code, jour 19. Évalué à 3.
Je ne suis pas sûr de comprendre, et ne lisant pas la Haskell, je me demande si tu peux m'éclairer. Est-ce un genre de dichotomie que tu fais ? Sur quel critère découpes-tu ou non un pavé de valeurs ?
# Optimisation insuffisante
Posté par 🚲 Tanguy Ortolo (site web personnel) . En réponse au message Advent of Code, jour 19. Évalué à 3.
La première partie ne pose pas de problème particulier. La seconde en revanche, c'est une autre paire de manches.
Mon idée pour optimiser cela consiste à réduire le nombre de cas que l'on teste. En effet, les workflows ont des règles basées sur des seuils, et fondamentalement, il suffit de balayer l'ensemble des combinaisons de ces valeurs seuils pour pouvoir déterminer ce qui arrivera à l'importe quelle combinaison entre ces valeurs.
Il faut faire attention à la façon dont on définit les seuils en question, parce que les définitions utilisent les opérateurs < et > qui ne sont pas l'opposé l'un de l'autre. Bref, il y a un détail important que je ne donnerai pas ici.
Toujours est-il que, pour mes données, ça me ramène à 6,4 × 10⁹ = 6,4 milliards de possibilités. Et c'est un peu long à tester : à un rythme de l'ordre de 150.000 combinaisons par seconde, ça va me prendre une douzaine d'heures. Il faut que je trouve mieux que ça…
# Trois dimensions
Posté par 🚲 Tanguy Ortolo (site web personnel) . En réponse au message Advent of Code, jour 17. Évalué à 3. Dernière modification le 18 décembre 2023 à 20:15.
Pour ce problème, j'ai considéré qu'on n'était pas vraiment en deux dimensions, mais plutôt en trois. Parce que l'état d'un creuset, ce n'est pas seulement sa position sur le terrain, mais aussi le nombre de cases qu'il a parcouru dans une direction donnée… ce qui se représente également très bien par un nombre, que je considère comme une troisième coordonnée.
Ça permet de se ramener à un problème de parcours de proche en proche, avec une définition bien particulière des voisins d'un point.
Voici le code :
[^] # Re: Sans géométrie
Posté par 🚲 Tanguy Ortolo (site web personnel) . En réponse au message Advent of Code, jour 18. Évalué à 3. Dernière modification le 18 décembre 2023 à 20:01.
Le code :
# Sans géométrie
Posté par 🚲 Tanguy Ortolo (site web personnel) . En réponse au message Advent of Code, jour 18. Évalué à 3.
Première partie
Pour la première partie, je fais du remplissage, voici les étapes :
Trouver l'aire, c'est trivial.
Deuxième partie
Pareil. Comment ça, pareil, alors que les coordonnées sont beaucoup trop grandes pour pouvoir faire ça avec des matrices ? Eh bien, on n'a pas besoin de toutes les coordonnées, voyez-vous. On a seulement besoin de celles où commencent ou finissent des tranchées en fait.
Bref, je me construis une matrice donc les cases ont des dimensions virtuelles carrément variables. Ensuite, on se ramène à l'algorithme précédent, avec un détail de pondération pour le calcul de l'aire.
[^] # Re: Pourquoi ça cycle
Posté par 🚲 Tanguy Ortolo (site web personnel) . En réponse au message Advent of Code, jour 14. Évalué à 3.
En effet. Mais c'est moins que 100×100 pour chaque galet, tout simplement parce que peu importe la position de chaque galet, ils se ressemblent tous au point d'être interchangeables. C'est plutôt la combinaison de 2.000 parmi 10.000 qui majore le nombre de possibilités. Ça fait quand même vachement beaucoup trop.
# Pas si vite
Posté par 🚲 Tanguy Ortolo (site web personnel) . En réponse au message Advent of Code, jour 15. Évalué à 3.
Oui, justement, j'ai comme l'impression que ce n'est pas parce qu'on a remis en service la production de lave que les forges de l'île du métal vont se remettre en marche toutes seules et que les lutins arriveront à produire des pièces de rechange sans aide. Et même alors quelque chose me dit que même avec des pièces de rechange toutes neuves, les lutins de l'île du désert vont avoir besoin de notre aide pour réparer leurs machines et pour collecter du sable. Sur l'île de l'île, on risque aussi d'avoir besoin d'assistance pour relancer la filtration de l'eau et l'envoyer sur l'île de la neige. Quand à l'île de la neige, je pense que la machine à neige ne va pas recevoir directement cette eau, et que les lutins ont sûrement fini par oublier comment cette machine.
Si les lutins savaient se débrouiller tout seuls, ça se saurait depuis le temps. Et là, on vient de relancer un processus vachement de pure ingénierie lutinesque donc vachement complexe et instable. On n'est pas encore sortis de l'auberge.
# Pourquoi des dictionnaires ?
Posté par 🚲 Tanguy Ortolo (site web personnel) . En réponse au message Advent of Code, jour 15. Évalué à 2. Dernière modification le 15 décembre 2023 à 13:10.
Pourquoi utilisez-vous des dictionnaires plutôt qu'un tableau ? On a 256 boîtes, indexées par un entier de 0 à 255, ça semble naturel de représenter ça par un tableau de 256 boîtes non ?
Mon code :
# Pourquoi ça cycle
Posté par 🚲 Tanguy Ortolo (site web personnel) . En réponse au message Advent of Code, jour 14. Évalué à 2.
En voyant la partie 2, j'ai immédiatement pensé deux choses :
Ce dernier point est une certitude absolue. Pourquoi donc ? Parce qu'il y a 100 ligne et 100 colonnes, donc moins de 100 × 100 = 10.000 positions possibles des pierres qui roulent. En fait, bien moins que ça, parce que les positions occupées par les pierres qui ne roulent pas ne sont pas utilisables, et que seules les dispositions stables par le nord – on se comprend – sont admissibles.
Bref, en moins de 10.000 cycles je suis sûr d'avoir au moins deux fois la même disposition. Et retomber sur une disposition déjà vue, c'est aussi retomber sur la disposition suivante au cycle d'après, etc.
Chez moi ça cycle en 64 cycles.
Le code :
# Imprimante à réservoir d'encre
Posté par 🚲 Tanguy Ortolo (site web personnel) . En réponse au message Imprimante. Évalué à 5.
Après des années à utiliser des pilotes spécifiques, les fabricants d'imprimantes de sont enfin mis ensemble pour concevoir une, enfin deux normes inspirées de CUPS. Une le la compatibilité avec les appareils Apple et une pour Android. CUPS prend en charge les deux.
Concrètement, ça veut dire que si tu prends une imprimante qui prend en charge AirPrint ou Mopria, ça marchera juste sans rien avoir à faire. Et c'est le cas de la grande majorité des imprimantes récentes, donc tu es assez libre dans ton choix.
Maintenant, si par hasard tu veux éviter de contribuer au modèle de financement par le consommable, avec des imprimantes vendues presque à perte et de l'encre vendue plus cher que le Chanel n°5, tu peux choisir une imprimante à réservoir d'encre. Ça coûte plus cher à l'achat, mais l'encre fournie avec correspond à un volume d'impression qui, en cartouches, coûterait déjà plus cher que le prix total de l'imprimante !
[^] # Re: casse tête
Posté par 🚲 Tanguy Ortolo (site web personnel) . En réponse au journal devoir hacker un train !. Évalué à 3.
Ça s'appelle un vice caché. Dans le cas présent, ce serait reconnu sans aucune difficulté. Avec en prime une mauvaise foi patente de la part du fabricant. Bref, si c'était en France, la SNCF pourrait le contraindre à payer des dommages-intérêts suffisants pour les mettre en faillite.
[^] # Re: Pas bien compliqué… en reformulant
Posté par 🚲 Tanguy Ortolo (site web personnel) . En réponse au message Advent of Code, jour 13. Évalué à 3.
Allez, voici le code :
# Pas bien compliqué… en reformulant
Posté par 🚲 Tanguy Ortolo (site web personnel) . En réponse au message Advent of Code, jour 13. Évalué à 3.
La première partie ne pose aucune difficulté particulière. Pour la seconde, l'énoncé suggère presque une implémentation directe : essayer de changer les points, un par un, et chercher à chaque fois si on trouve une réflexion. Inutile de dire que ça risque de prendre un peu trop de temps.
En reformulant le problème, on peut trouver une solution plus intelligente : on ne cherche plus une réflexion parfaite mais une réflexion avec exactement une erreur. Voilà, vous avez l'algorithme, je vous laisse. :-)
[^] # Re: Rien de vraiment compliqué, il faut juste utiliser tout ce qu'on sait faire.
Posté par 🚲 Tanguy Ortolo (site web personnel) . En réponse au message Advent of Code 2023, jour 12. Évalué à 5.
Ah, je crois que j'ai trouvé ce qui consomme de la mémoire dans ton cache. Et qui doit peut-être pas mal le ralentir aussi. Tu as
self
parmi les arguments de la fonction sur laquelle le cache travaille.Intuitivement, je dirais que pour un maximum d'efficacité, il faut minimiser les arguments d'une fonction sur laquelle on veut appliquer un cache. Quitte à définir une fonction auxiliaire locale et que ce soit celle-là qui soit cachée.
[^] # Re: Rien de vraiment compliqué, il faut juste utiliser tout ce qu'on sait faire.
Posté par 🚲 Tanguy Ortolo (site web personnel) . En réponse au message Advent of Code 2023, jour 12. Évalué à 4.
Ça ne m'étonne pas trop. Les gros calculs en question sont surtout des appels de fonctions, des branchements, des tests et des additions d'entiers. Je doute que ça soit les points forts de PyPy, si ?
[^] # Re: Rien de vraiment compliqué, il faut juste utiliser tout ce qu'on sait faire.
Posté par 🚲 Tanguy Ortolo (site web personnel) . En réponse au message Advent of Code 2023, jour 12. Évalué à 4. Dernière modification le 12 décembre 2023 à 14:28.
Bon, voilà quoi. J'ai utilisé un cache, évidemment.
Pour info, avec un coefficient de pliage de 10 et en utilisant CPython, j'obtiens une réponse 1 498 094 344 344 361 041 914 985 222 578 (1,5×10³⁰ soit 1,5 millier de milliards de milliards de milliards) en 3,3 secondes et une consommation mémoire de 22 Mio :
[^] # Re: Rien de vraiment compliqué, il faut juste utiliser tout ce qu'on sait faire.
Posté par 🚲 Tanguy Ortolo (site web personnel) . En réponse au message Advent of Code 2023, jour 12. Évalué à 4.
En fait je ne vois pas pourquoi ce serait vrai. Si tu as des solutions avec une source inconnue donnée considérée comme en bon état, il n'y a aucune raison qu'en prenant ces solutions, et en les décalant d'un cran vers la gauche, ça corresponde toujours au schéma de la ligne donnée.
[^] # Re: Rien de vraiment compliqué, il faut juste utiliser tout ce qu'on sait faire.
Posté par 🚲 Tanguy Ortolo (site web personnel) . En réponse au message Advent of Code 2023, jour 12. Évalué à 4. Dernière modification le 12 décembre 2023 à 13:51.
Ayé, j'ai résolu la partie 2. Mais je ne suis pas du tout satisfait de ma solution, c'est super efficace mais j'ai l'impression d'avoir triché.
Je vous explique. Pour la partie 1, j'ai écrit une fonction récursive qui donne le nombre de possibilités d'arrangements restants étant donné des choix déjà faits sur un certain nombre de sources. Elle prend en entrée un état d'avancement, qui indique :
Si on a considéré toutes les sources, ça renvoie directement 1 si le compte est bon (on a atteint le dernier groupe de sources cassées et il est exactement rempli) et 0 sinon.
Si on n'a pas encore considéré toutes les sources, ça regarde la suivante et ça itère sur ses états possibles (une source en état ne peut être qu'en état, une source cassée ne peut être que cassée et une source en état inconnu peut être les deux, évidemment) :
* pour un état hors service, si la dernière source considérée était en état, ça ouvre un nouveau groupe… si possible, c'est à dire s'il reste des groupes non considérés, sinon on est dans une impasse et ça
continue
;* pour un état en état (hmm…), si la dernière source considérée était hors service, ça vérifie si le compte de sources hors service correspond au groupe courant et si ce n'est pas le cas on est dans une impasse et ça
continue
;* dans les cas où on n'a pas
continue
é, on appelle la même fonction récursive pour l'étape d'après et on ajoute sa valeur de retour à celle qu'on va renvoyer.Ce sera peut-être plus clair avec le code :
Bon, pour la partie 2, c'est beaucoup trop long, évidemment. Et donc, faute de trouver une astuce, vu le genre de paramètres de la fonction, j'ai bêtement utilisé un…
[^] # Re: Simple et qui rappelle des souvenirs.
Posté par 🚲 Tanguy Ortolo (site web personnel) . En réponse au message Advent of Code 2023, jour 11. Évalué à 3.
C'est… bizarre comme façon de penser je trouve. Non ?
[^] # Re: Pas besoin de tout stocker !
Posté par 🚲 Tanguy Ortolo (site web personnel) . En réponse au message Advent of Code 2023 : Day 9. Évalué à 3. Dernière modification le 11 décembre 2023 à 17:50.
Trève de blabla, l'implémentation :
# Pas besoin de tout stocker !
Posté par 🚲 Tanguy Ortolo (site web personnel) . En réponse au message Advent of Code 2023 : Day 9. Évalué à 3.
En fait, si on y réfléchit un peu, on s'aperçoit qu'il n'est pas utile de stocker toute la liste, ni toute la liste des dérivées, ni toute la liste des dérivées secondes, etc. Tout ce dont on a besoin, c'est :
Par exemple, en cours de calcul :
En fin de calcul :
Pour extrapoler à droite, si vous prenez le temps de vérifier ce qui se passe, il suffit en fait de faire la somme de toutes les dernières valeurs.
Et pour extrapoler à gauche, la somme de toutes les valeurs, en passant en négatif celles d'une ligne sur deux. Ou, pour le dire autrement, la somme du produit des premières valeurs multipliées par moins un élevé à une puissance égale au rang de la ligne d'où vient la valeur courante.
# Strike
Posté par 🚲 Tanguy Ortolo (site web personnel) . En réponse au message Advent of Code 2023, jour 11. Évalué à 3. Dernière modification le 11 décembre 2023 à 16:37.
Bon, aujourd'hui nous sommes dans le cas d'un problème avec une solution naïve qui ne passe pas à l'échelle. Mais personnellement, comme l'optimisation de la première partie était quand même assez simple, j'ai fait un strike, la deuxième partie était résolue en changeant simplement une constante.
# Deuxième partie
Posté par 🚲 Tanguy Ortolo (site web personnel) . En réponse au message Advent of Code 2023, jour 11. Évalué à 3.
Attention, spoiler, ne lisez pas si vous en êtes à la première partie et que vous ne voulez pas vous gâcher le plaisir de devoir peut-être réfléchir à nouveau pour implémenter la deuxième.
Deuxième partie
En fait l'espace s'étend plus vite que vous ne l'imaginiez. Les lignes et colonnes qui ne contiennent aucune galaxie ne prennent pas deux fois plus de place, mais un million. Bonne chance et attention à l'OOM killer.