Conférence SophiaConf le 29 et 30 juin 100 % en ligne

Posté par  . Édité par Pierre Jarillon et Davy Defaud. Modéré par bubar🦥. Licence CC By‑SA.
10
22
juin
2020
Communauté

Retours d’expérience et partage d’expertise

Quatre webconférences sur deux jours : IA, conteneurs, Covid‑19 et sécurité

Telecom Valley annonce la programmation de SophiaConf 2020, les 29 et 30 juin prochains de 17 h à 19 h, sous un format 100 % numérique, pour s’adapter au contexte sanitaire et économique incertain, tout en restant le rendez‑vous annuel estival des acteurs de l’Open Source azuréens. Des experts locaux partageront des retours d’expérience sur l’Open Source autour de quatre thèmes : Intelligence artificielle, Conteneurs, Covid‑19 et Sécurité.

La côte d’Azur possède de nombreux acteurs et consommateurs du logiciel libre, et cette année encore, SophiaConf va réunir ces pépites locales pour partager leurs expériences autour du Covid‑19, de l’intelligence artificielle, des conteneurs et de la cybersécurité, réparties en deux soirées de conférences.

Journal Revue (pas du tout exhaustive) de livres orientés machine learning / deep learning

Posté par  . Licence CC By‑SA.
16
21
avr.
2020

Chère linuxfrienne, cher linuxfrien,
voici une petite dizaine d'année que l'"IA" a commencé à diffuser hors de la sphère des scientifiques/développeurs/experts et a commencé à faire la une d'articles plus ou moins grand public.
Étant d'un naturel curieux et, profitant de cette période d'accalmie forcée, je me suis lancé dans lecture d'ouvrages dédiés à l'apprentissage automatique (machine learning) et l'apprentissage profond (deep learning, DL) en Python. Bon en fait j'ai commencé avant, mais on s'en fout.

À toutes fins utiles (…)

Journal Vélib' et open data

Posté par  (site web personnel) . Licence CC By‑SA.
10
20
fév.
2020

Ce court journal pour vous présenter un petit dataset qui pourrait intéresser certain.e.s d'entre vous (les plus parisien.ne.s):

J'ai récolté l'historique des disponibilités de vélos sur l'ensemble du réseau Vélib' depuis décembre 2019.

Le résultat est sur le dépôt github suivant: lovasoa/historique-velib-opendata.

Pourquoi ?

Paris met à disposition sous licence ODBL la disponibilité des vélibs en temps réel. Mais elle ne fournit aucun moyen d'accéder à l'historique de ces données. C'est dommage, car avoir des données historiques permettrait par (…)

Journal machine learning - expérimentation foireuse

Posté par  . Licence CC By‑SA.
Étiquettes :
15
6
mar.
2019

Bonjour Nal,

Je dois vendre mon véhicule. Je souhaite estimer le bon prix pour le vendre : juste assez pour en tirer un bon bénéfice mais pas trop pour qu'il puisse trouver acquéreur.
Je peux aller sur un site spécialisé qui moyennant quelques informations me produira cette estimation.
Mais à l'heure du machine learning, avouez que ce n'est pas très palpitant.

Alors j'ai collecté deux cent annonces de ventes d'un véhicule de même marque, même modèle, dont j'ai extrait le (…)

Journal SeqTools et retour d'expérience sur le traitement de jeux de données en python

Posté par  . Licence CC By‑SA.
38
29
oct.
2018

SeqTools est une librairie que j'ai créée pour transformer des jeux de données trop gros pour tenir en mémoire. Elle remplit un rôle comparable à itertools de la librairie standard, mais fait aussi en sorte de donner accès aux éléments par indexation, ce qui est plus pratique.

Dépôt du code
Documentation

L'objectif principal consiste à prendre une ou plusieurs sources de données et de les combiner ou de modifier leurs éléments pour obtenir une version transformée.
Par exemple, partant d'une (…)

Prédire la note d’un journal sur LinuxFr.org

139
9
juin
2017
LinuxFr.org

Cette dépêche traite de l’exploration de données sur des données issues de LinuxFr.org.

Ayant découvert récemment scikit-learn, une bibliothèque Python d’apprentissage statistique (machine learning). Je voulais partager ici un début d’analyse sur des contenus issus de LinuxFr.org.

Avertissement : je ne suis pas programmeur, ni statisticien. Je ne maîtrise pas encore tous les arcanes de scikit-learn et de nombreux éléments théoriques m’échappent encore. Je pense néanmoins que les éléments présentés ici pourront en intéresser plus d’un(e).

Tous les scripts sont codés en Python et l’analyse à proprement parler a été réalisée à l’aide d’un notebook Jupyter. Un dépôt contenant les données et les scripts est disponible sur GitLab.