Trouvez votre prochaine offre d’emploi ou de mission Python à Lille
Votre recherche renvoie 11 résultats.
Astuce
Astuce
Utilisez des virgules pour rechercher plusieurs termes en même temps.
Exemple : sql, php correspond à sql OU php

Mission freelance Dév Python Vue
WHEEL OF WORK
Publiée le
2 ans
420-450 €
Lille, Hauts-de-France
Au sein du produit Cloud Networking, tu participes :
- au développement de la solution d’automatisation réseau
- à l’amélioration de la qualité de notre delivery en mettant en place des tests automatisés
- au support de la solution en cas d’anomalie
Les connaissance réseaux sont un plus

Mission freelance MLOPS Python GCP
WHEEL OF WORK
Publiée le
1 an
420-460 €
Lille, Hauts-de-France
Nous recherchons un développeur expert full stack pour la construction de la plateforme MLOPS du groupe. Le language back est le Python. Pour le front il reste à définir (choix ouvert). Il est très important que le profil soit un très bon communiquant capable de guider les autres développeurs vers les meilleures pratiques de développement en plus d’avoir une très bonne expertis technique. Contexte international donc très riche culturellement et besoin impératif de parler l’anglais sans difficultés.

Mission freelance Dév Python sql python - Développer les outils nécessaire à l’observabilité
WHEEL OF WORK
Publiée le
1 an
350-380 €
Lille, Hauts-de-France
Au sein d’une équipe Observabilité, vous êtes acteur dans la construction de la plateforme d’observabilité composée de plusieurs outils d’alerting, monitoring, log management et APM pour des applications à la fois hébergées on Premise et dans le cloud. Votre mission :
Vous participez au cahier des charges et aux développements des outils liés à la plateforme d’Observabilité
- Outils de re-facturation à la consommation : récupération par api des données de consommation des produits liés à l’observabilité (Datadog, Dynatrace, Sentry, Centreon, Pagerduty ...) afin d’en afficher les coûts de consommation à nos clients (tableaux et dashboards Datastudio)
- Automatisation des actions réalisées manuellement afin de rendre autonome nos utilisateurs et de diminuer la charge de run de l’équipe
- Accompagnement de l’équipe sur les bonnes pratiques de développement et sur l’organisation des repositories
- Maintenance et développement d’API, autres modules ou nouvelles fonctionnalités nécessaires à l’observabilité tels que:
- outil de synchronisation entre 2 applications
- Application spécifique pour le support dans Slack
- Outil de gestion des droits applicatifs
Vous développez et intégrez ces outils/fonctionnalités dans le cloud (GCP).
Vous rédigez la documentation et les dossiers d’exploitation afin de capitaliser, former et transférer les compétences aux équipes techniques internes.

Mission freelance Data Engineer GCP sql python
WHEEL OF WORK
Publiée le
3 ans
400-500 €
Lille, Hauts-de-France
Les responsabilités de l’équipe sont les suivantes :
- Acculturation data driven via du coaching, des masterclass et de la formation,
- Data Management (Data Architecture / Data Engineering) dans une vision. DATA MESH : définition, acquisition, publication, qualité, partage et disponibilité des données,
- Predictive Analytics & Dataviz : pour prendre des décisions positives en se basant sur du factuel,
- Accélération AI/ML : en créant des cas d’usage directement intégrés dans nos produits et nos process (ML as a Feature)
En tant que Data Engineer, tu auras pour mission principale de partager et mettre en action les bonnes pratiques de Data Engineering. Tu seras un véritable lien entre les équipes et les équipes du Global Data, en charge de la construction du socle technologique data pour tout le groupe.
Tu auras parmi tes activités :
- L’appropriation des process de publication de données (synchrone, asynchrone, temps réel, ) via notre Global Data Hub sur Google Cloud Platform.
- Accompagner les équipes de la plateforme sur la publication de leurs données.
- Organiser un modèle physique de données, répondant aux enjeux de Data Mesh, en lien avec les préconisations de Data Architecture.
- Concevoir et industrialiser des flux de données.
- Mettre en place et suivre les indicateurs de qualité de données.
- Acculturer les équipes produits afin qu’elles s’approprient à leur tour les process de publication et le monitoring de leur RUN
- Conseiller les Data Analysts, ML Engineers et Data Scientists de l’équipe sur les approches techniques (industrialisation, optimisation, MLOps...).
- Communiquer et échanger avec les équipes d’exploitation (RUN) afin d’établir des solutions durables.
- Échanger avec les équipes d’architecture (Enterprise Architects et Data Architects) afin d’aligner les solutions d’entreprise (respect de la stratégie d’entreprise, cohérence globale de la solution...).
- S’assurer que la donnée soit stockée de manière sécurisée.

Mission freelance Développeur Python/Vuejs
ESENCA (groupe Kali)
Publiée le
1 an
Lille, Hauts-de-France
Profil : confirmé (minimum 5 ans d’expérience sur les deux technologies exigées)
Au sein du produit Cloud Networking, tu participes :
- au développement de la solution d’automatisation réseau
- à l’amélioration de la qualité de notre delivery en mettant en place des tests automatisés
- au support de la solution en cas d’anomalie
Python - Expert - Impératif
Test unitaires / automatisés - Confirmé - Souhaitable
VueJS - Confirmé - Serait un plus
Connaissances réseaux - Débutant - Serait un plus

Mission freelance SRE Devops python network performance management
WHEEL OF WORK
Publiée le
1 an
380-420 €
Lille, Hauts-de-France
Tu mets à disposition et facilites le déploiement des solutions techniques permettant l’implémentation, le suivi des indicateurs et le pilotage des objectifs de performance de leurs produits (SLI/SLO).
En tant que Site Reliability Engineer, tu es l’interlocuteur privilégié des équipes produits sur l’analyse des performances et l’animation des plans de remédiation.
Tu seras également amené à participer à l’évolution de la stratégie d’observabilité des produits IT construite en transversalité avec les plateformes Groupe et en être le promoteur auprès des équipes produits de le BU France.
Ton rôle vise à :
Comprendre les orientations, les enjeux métiers de l’Enjeu Digital Data et les décliner dans tes activités,
Être le référent de l’amélioration des opérations en élaborant un plan de déploiement des compétences, des bonnes pratiques et des solutions de management de la performance sur les périmètres produits qui te seront confiés
Assurer l’exécution des projets de déploiement de l’observabilité et d’initialisation de la démarche SRE au sein des produits digitaux (Service Level Indicators/Service Level Objective/Error Budget Policy)
Accompagner les ressources opérationnelles (OPS) sur la mise en place des processus et bonnes pratiques pour le suivi des opérations et de la performance
Assurer le support technique auprès des équipes produits dans le déploiement et l’utilisation des produits d’observabilité fournis par le Groupe (Ambassadeur Datadog, Dynatrace et Pager Duty)
Alerter régulièrement ton management et tes sponsors produits sur les difficultés rencontrée
En partenariat avec le groupe, vous animez le respect du cadre technologique (Tech Radar) et des bonnes pratiques de l’observabilité / SRE (assurer une cohérence globale et convergence des solution utilisées).
Pour réaliser ta mission, tu t’appuies sur ton Technical Product Owner, les membres de ta Squad et sur l’ensemble des centres de compétences techniques de Client / Groupe.
Mission freelance Développeur VueJS / Python
HN SERVICES
Publiée le
1 an
400-420 €
Lille, Hauts-de-France
Compétences requises :
- VueJS
- Python
- Test unitaires / automatisés
- Connaissances réseaux
- Anglais lu, écrit
Au sein du produit Cloud Networking, tu participes :
- au développement de la solution d’automatisation réseau
- à l’amélioration de la qualité de notre delivery en mettant en place des tests automatisés
- au support de la solution en cas d’anomalie

Mission freelance Développeur Back-End Python - Data Pipelines
WHEEL OF WORK
Publiée le
1 an
450 €
Lille, Hauts-de-France
Objectif global:
En tant que Développeur Back-End Python, vous jouerez un rôle essentiel dans le développement du produit Data Pipelines. Votre mission consistera à concevoir et mettre en œuvre des modules de transformation de données ainsi que des APIs. Vous participerez également aux décisions d’architecture et de sécurité dans un environnement Cloud (GCP). Votre expertise technique en Python sera primordiale pour le succès du projet.
Responsabilités:
Développer des modules (data pipelines) de transformation de données ainsi que des APIs pour permettre aux équipes produits du groupe de construire et surveiller leurs data pipelines de manière autonome.
Participer activement aux discussions et aux décisions concernant l’architecture et la sécurité des solutions dans l’environnement Cloud (GCP).
Concevoir et mettre en œuvre des outils facilitant le développement de nouveaux modules.
Assurer la communication entre les microservices pour garantir une intégration fluide des fonctionnalités.
Développer un scheduler et un dispatcher pour orchestrer les tâches et optimiser les flux de données.
Mettre en place des outils de monitoring pour assurer le suivi et la performance des data pipelines.
Apporter une assistance technique aux utilisateurs en cas de problèmes de fonctionnement.
Collaborer avec les autres membres de l’équipe en participant activement aux MOB (Mob Programming) et aux Pair Reviews pour assurer la qualité du code et favoriser le partage des connaissances.

Mission freelance Administrateur / Devops Linux - Confirmé - Anglais obligatoire
CAPPUCCINO CONSULTING
Publiée le
Linux
Puppet
Python
1 an
450-600 €
Lille, Hauts-de-France
Maintenir et faire évoluer les environnements sous votre responsabilité.
Développer les outils nécessaires à l’automatisation de la plateforme.
Fournir les KPI (Metrics, Performances, Stabilité) aux responsables applicatifs de la solution
Investiguer sur les incidents complexes et assurer la coordination avec les autres équipes de support
Proposer et implémenter les bonnes pratiques
Communiquer à nos clients au sujet des changements, incidents et maintenance
Participer au développement de la documentation
Participer à l’écriture des post-mortem et assurer le suivi lors d’incidents majeurs

Mission freelance Data Engineer
ICSIS
Publiée le
Agile Scrum
Apache Spark
Base de données
3 ans
400-500 €
Lille, Hauts-de-France
La mission consiste à :
- Exposer les données utiles à l’entreprise pour les analyser et les utiliser afin d’améliorer l’expérience utilisateur et la productivité
- Transformer des données issues du DataLake afin de les normaliser
- Modéliser la sphère de données
- Exposer des données brutes et/ou agrégées au bon niveau de granularité aux différents métiers de l’entreprise
- Travailler sur des missions de Data Science en lien avec les données qu’il aura exposées
- Mettre en place des rapports de Dataviz
- Mission basée en métropole lilloise avec présence sur site 3j/semaine obligatoire
Compétences demandées :
- Formation supérieure en école d’ingénieur, école d’informatique ou Master spécialisé dans la Data Science
- Première expérience en Data Engineering indispensable
- GCP, BigQuery, SQL, Data Studio, Qlikview, Shell, Power BI, Python, Stambia...
- Excellents savoir-être : rigueur, esprit analytique et de synthèse, communication...
- Méthode Agile
- Anglais un+
Cette mission vous intéresse ? Contactez-nous.
-lien masqué-

Mission freelance Lead Data Scientist en freelance
Templeton and Partners Limited
Publiée le
Docker
Kubernetes
Python
6 mois
Lille, Hauts-de-France
Templeton & Partners recherche pour l’un de nos clients multinationaux dans le secteur du commerce de détail de sports un -e Lead Data Scientist.
Notre client, une entreprise leader dans le domaine sportif, intensifie sa transformation numérique avec pour objectif de devenir une plateforme sportive numérique incontournable, offrant à ses utilisateurs de nombreuses expériences locales axées sur le sport. Dans cette optique, nous cherchons à créer un écosystème ouvert qui connecte de manière sûre et performante différents acteurs et services tiers.
Lieu: Lille
Mode: Hybrid (2 jours de télétravail par semaine)
Démarrage: ASAP
Durée: 6 mois
En tant que Lead Data Scientist au sein du sein de l’équipe Offer & Pricing, vous aurez l’opportunité de:
Travailler en étroite collaboration avec les Product Managers, Machine Learning Engineers et Data Engineers pour repérer les occasions business à fort impact, exploiter les données afin de mesurer les résultats, et contribuer à la planification de la stratégie ainsi qu’à la feuille de route de ML pour l’équipe.
Concevoir et développer des systèmes novateurs d’apprentissage automatique à intégrer dans des contextes industriels.
Élaborer des systèmes intelligents pour surveiller en temps réel et garantir l’observabilité des données.
Définir les cadres de fonctionnement pour nos flux de travail en production (astreintes, procédures, SLO/SLA)
Contribuer à la diffusion des meilleures pratiques concernant les outils ML, dans le but d’améliorer la productivité et la qualité des résultats pour les ingénieurs et les scientifiques de toutes les équipes.
Encadrer, orienter et recruter d’autres membres de l’équipe pour favoriser l’efficacité opérationnelle et la croissance continue.
COMPÉTENCES REQUISES
Expertise approfondie du Machine & Deep Learning et des algorithmes d’optimisation.
Production de code robuste permettant l’industrialisation, le passage à l’échelle et le maintien de la solution IA (framework de développement, Domain-Driven Design, Kedro, )
Maîtrise indispensable de Python et de ses librairies Data Science (pandas, numpy, scikit-learn, tensorflow, pytorch, )
Maîtrise des outils permettant de gérer les gros volumes de données (stockage HDFS, calcul distribué, ) via Spark.
Compréhension fonctionnelle de l’offre / l’assortiment produit dans l’univers du retail.
Expérience significative dans la mise en production de solutions de ML ayant un impact à grande échelle sur les clients.
Expérience avec Docker, Kubernetes, Kafka, Airflow, MLflow, Databricks, Sagemaker.
Maîtrise des pratiques de packaging ML et de mise en place des architectures AI avancées.
Maîtrise des environnements de développement sur le Cloud (ex : AWS, SageMaker, DataBricks, etc.). 2
Minimum 6 années d’expérience en tant que Data Scientist.
Maîtrise de l’Anglais indispensable.
Ps. Nous proposons également un programme de parrainage compétitif. Si vous ne recherchez pas d’emploi actuellement, mais connaissez quelqu’un qui pourrait convenir, n’hésitez pas à partager cette offre. Pour chaque placement réussi recommandé, vous recevrez une prime de € 250 pour chaque personne recommandée.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Offres par villes
Paris
Marseille
Lyon
Toulouse
Nice
Nantes
Montpellier
Strasbourg
Bordeaux
Lille
Rennes
Reims
Saint-Étienne
Le Havre
Toulon
Grenoble
Dijon
Angers
Nîmes
Villeurbanne
Saint-Denis
Le Mans
Aix-en-Provence
Clermont-Ferrand
Brest
Tours
Amiens
Limoges
Annecy
Perpignan
Boulogne-Billancourt
Besançon
Metz
Orléans
Rouen
Argenteuil
Mulhouse
Montreuil
Caen
Nancy
Saint-Paul
Tourcoing
Roubaix
Nanterre
Avignon
Vitry-sur-Seine
Poitiers
Créteil
Dunkerque
Versailles
Asnières-sur-Seine
Aubervilliers
Colombes

Nouveauté ! Avec Free-Work MyBusiness, vous pouvez désormais gérer votre facturation, vos clients et votre activité facilement. C'est gratuit et sans engagement !