L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 137 résultats.
Mission freelance
Data Engineer Python AWS
Publiée le
AWS Cloud
Python
12 mois
620 €
Paris, France
Télétravail partiel
Cherry Pick est à la recherche d'un Data Engineer Python AWS pour l'un de ses clients dans le secteur de l'énergie. Missions : Le Data Engineer sera responsable de la conception, du développement et de la mise en production de l'architecture de données. Il devra notamment : Collecter les exigences des métiers et des utilisateurs Concevoir l'architecture de données Concevoir les pipelines de données Mettre en production l'architecture Assurer la maintenance et l'évolution de l'architecture Le Data Engineer travaillera en étroite collaboration avec : Les Product Owners Les Data Analysts Les équipes métiers (marketing, trading, exploitation, supply chain…) Les équipes DataOps / MLOps
Mission freelance
Data Scientist Senior
Publiée le
Google Cloud Platform (GCP)
Python
SQL
12 mois
Paris, France
Télétravail partiel
Contexte de la mission Une grande organisation publique du secteur numérique renforce sa Direction Data, rattachée à la Direction du Numérique. Cette direction a pour objectif de faire de la donnée un levier majeur de croissance et d’optimisation des usages numériques. Le pôle Data Intelligence, composé de 4 Data Scientists et 2 Data Analysts, recherche un Data Scientist senior afin de soutenir l’exploitation des données utilisateurs, la mise en place de modèles avancés et la structuration du socle analytique. Une expérience minimale de 8 ans en data science est requise. Prestations attendues Le consultant interviendra au sein de l’équipe Data Science pour : Analyse et structuration de données • Auditer les nouvelles données disponibles dans le datalake pour enrichir le socle analytique. • Explorer, analyser et comprendre les profils et comportements utilisateurs. • Réaliser des analyses avancées : profils de vidéonautes, comportements par canal, consommation de contenus, impact de la pression publicitaire. Développement de modèles de Data Science • Comprendre les besoins métier, proposer une approche adaptée et vulgariser les résultats. • Développer et industrialiser des modèles tels que : Prévision des audiences. Enrichissement du catalogue via IA générative. Analyse sémantique des commentaires utilisateurs. Prédiction d’inactivité, d’appétence, anti-churn. Segmentation utilisateurs. Contribution au produit Data • Participer à l'amélioration continue des outils et pipelines. • Travailler avec les équipes data, produit et métier dans un contexte agile. Expertises requises Techniques • Expériences concrètes en modèles IA : prévision, recommandation, scoring, analyse sémantique, détection d’anomalies. • Expérience significative sur des sujets d’IA générative (IAG). • Maîtrise impérative de Python et SQL . • Bonne connaissance d’un cloud, idéalement Google Cloud Platform . • Connaissance des données issues d’écosystèmes digitaux (Piano Analytics, Google Analytics…). • Connaissance d’un outil de dataviz. • Un plus : architectures API, Git/GitHub, méthodes agiles. Fonctionnelles • Capacité à comprendre un besoin métier, synthétiser et restituer clairement. • Capacité à gérer plusieurs projets simultanément. • Rigueur, autonomie, esprit d’équipe.
Offre d'emploi
Data Analysis – AMOA NIveau 3
Publiée le
Business Analyst
18 ans
40k-45k €
100-400 €
Strasbourg, Grand Est
Télétravail partiel
CONTEXTE : La demande porte sur une mission de contribution à des projet de BI en lien avec le Datalake . Ce rôle combine des compétences techniques en analyse de données avec une compréhension approfondie des processus métiers. La demande porte sur une mission de maitrise d’ouvrage spécialisée Data avec un profil Business Analyst orienté Data/BI. MISSIONS Data Analyst / Assistance à Maitrise d’ouvrage Le profil interviendra dans l’équipe offre métier ; rattaché au responsable d’équipe, il interviendra sur des projets orientés DATA impactant le Datalake. Ces projets spécifiques nécessitent : • Une bonne compréhension des besoins de reporting attendus par les utilisateurs métiers • Une bonne compréhension des processus métiers sous-jacents à l’origine de la production des flux de données Nature des tâches : • Compréhension des process métier et des besoins de reporting des interlocuteurs métiers (back office, chefs produit…) • Analyse des données existantes pour définir les modalités de production de ce reporting • Rédaction des spécifications à destination de l’équipe Data (composée de data engineers) pour la phase d’industrialisation : formalisation des données manipulées, des règles de gestion (filtres, relations, etc.), règles de gestion, définition métier des fonctions de collecte de données • Suivi et pilotage du projet jusqu’à la livraison au client Compétences requises : • Fonctionnelles et transversales o Capacité à traduire des besoins métiers en analyses concrètes o Esprit critique et rigueur dans l’interprétation des données o Excellentes compétences en communication et vulgarisation de données complexes o Autonomie, proactivité et capacité à travailler en équipes • Techniques et analytiques : o Utilisation des outils d’analyse de données (SQL, Notebooks Python, Excel, Power Query…) o Utilisation des outils de Visualisation de données (Power BI)
Mission freelance
Directeur de projet Réseau Télécom
Publiée le
Comité de pilotage (COPIL)
JIRA
Scrum
18 mois
210-700 €
Paris, France
Télétravail partiel
CONTEXTE Experience : 9 ans et plus Métiers Fonctions : Pilotage de projet ou de programme, Directeur de projet télécom Spécialités technologiques : Workplace, Poste de travail, Workplace, Protocoles de communication, Réseaux Télécom, WAN, LAN MISSIONS La Direction Workplace & Network souhaite transformer en profondeur son modèle de services réseau managés (WAN / LAN / WIFI) afin d’améliorer la performance, la résilience et la qualité de service pour ses multiples sites. L’organisation mène une consultation visant à passer d’un modèle mono-opérateur à un vivier de deux opérateurs, et recherche un Directeur de projet pour piloter l’ensemble des sujets liés à cette transformation stratégique. Le périmètre fonctionnel couvre : des offres réseau WAN, LAN et WIFI managé, un ensemble de chantiers structurants liés à la rénovation du réseau de collecte IP. Piloter les travaux liés à la consultation en cours sur les solutions WAN, LAN, WIFI et accès Internet managés. Préparer l’ensemble des éléments nécessaires à la mise en place du nouveau vivier d’opérateurs réseau. Coordonner les équipes internes (experts, architectes, NOC, métiers) et assurer le rôle de référent auprès du Programme Groupe. Définir, organiser et piloter les activités nécessaires à la transition d’un modèle opérateur unique vers un modèle multi-opérateurs. Volets principaux de la mission : 1) Pilotage de la consultation opérateurs Analyse détaillée des réponses des soumissionnaires aux exigences techniques et fonctionnelles. Synthèse des offres (V2) et préparation des ateliers avec les soumissionnaires shortlistés. Animation et mobilisation des équipes internes (experts réseau, data analysts, PO, etc.). Production des supports pour les instances et ateliers de consultation. 2) Préparation du nouveau modèle de services réseau Rôle de référent auprès du Programme Groupe et des équipes architecture / exploitation. Participation à la définition des référentiels réseau. Identification, distribution et coordination des activités préparatoires au sein du NOC. Élaboration des lotissements macro pour alimenter Business Case et budgets. Animation d’ateliers internes sur les sujets : processus, architecture, outillage, exploitation. 3) Pilotage produit & Gouvernance Participation à la vision Product Management : objectifs, features, roadmap. Co-construction des solutions avec les équipes réseau pour respecter les engagements du produit. Défense des intérêts de l’organisation auprès des opérateurs et du Groupe. Contribution aux COPIL des projets de transformation. Livrables attendus : Synthèses et analyses des offres opérateurs. Supports et CR d’ateliers de consultation. Contributions aux référentiels réseau. Lotissements macro, inputs Business Case. Supports COPIL et documents de gouvernance. Documentation projet et processus associés. Expertise souhaitée Compétences techniques : Maîtrise solide des offres télécom managées WAN / LAN / WIFI. Très bonne connaissance des enjeux d’un réseau de collecte IP. Pilotage d’appels d’offres opérateurs réseau. Maîtrise JIRA indispensable. Confluence, Klaxoon appréciés. Pratique de SAFe ou SCRUM (formation SAFe obligatoire). Soft skills : Leadership, coordination, analyse, synthèse, curiosité, animation, communication claire.
Mission freelance
Data Engineer Talend / GCP
Publiée le
Google Cloud Platform (GCP)
Microsoft SQL Server
Talend
3 ans
400-530 €
Île-de-France, France
Télétravail partiel
Dans le cadre du renforcement de la Data Factory de notre client grand compte, nous recherchons un Data Engineer Talend / GCP expérimenté. Vous interviendrez sur la conception, le développement et l’optimisation de solutions Data destinées à répondre aux besoins analytiques et opérationnels des métiers. Votre rôle sera clé dans la mise en place d’une infrastructure Data performante, fiable et scalable sur Google Cloud Platform . Missions principales Analyser les besoins métiers et leurs impacts sur la donnée Concevoir et développer des pipelines de données robustes et évolutifs avec Talend et les services GCP (BigQuery, DataForm, Dataflow, Pub/Sub, Cloud Composer) Optimiser la performance et la scalabilité des solutions existantes Collaborer avec les architectes, Product Owners et Data Analystes pour garantir la qualité et la cohérence des données Maintenir une documentation technique claire et complète Mettre en place le monitoring et les contrôles d’intégrité des pipelines Participer à la recette technique et fonctionnelle des livrables Assurer la maintenance corrective et évolutive des traitements en production Garantir la conformité des développements avec les bonnes pratiques Data et Cloud
Offre d'emploi
Ingénieur DevOps
Publiée le
API REST
AWS Cloud
Github
12 mois
40k-55k €
400-500 €
Lille, Hauts-de-France
Télétravail partiel
Au sein d’une Business Unit dédiée à la Data, vous interviendrez sur une plateforme cloud stratégique, utilisée par l’ensemble des profils data : data engineers, data scientists, data analysts et équipes de développement. Votre rôle sera de contribuer à l’évolution, la résilience et la sécurité de l’infrastructure data, tout en apportant un support technique avancé. Votre rôle Vous serez impliqué·e dans trois périmètres principaux : 1. Évolution et exploitation d’une offre de compute Kubernetes (AWS EKS) Faire évoluer le produit selon l’état de l’art et automatiser les fonctionnalités existantes et futures. Analyser, challenger et formaliser les besoins utilisateurs. Automatiser la mise à disposition de ressources et d'accès en self-service. Assurer le maintien en condition opérationnelle (MCO) et le support N3. Suivre les évolutions de Kubernetes et de l’écosystème CNCF. Garantir la sécurité et la conformité des clusters. Améliorer en continu les mécanismes d’observabilité (logs, métriques, alerting). Veiller à la fiabilité, l’évolutivité et la maintenabilité du produit. 2. APIsation de la plateforme Identifier les besoins Ops et les traduire en solutions techniques basées sur des API. Concevoir, développer et maintenir des API robustes et évolutives. Garantir la maintenabilité, la performance et l'interopérabilité entre les services. 3. Animation technique & bonnes pratiques DevOps Mettre en place une automatisation complète de la chaîne de delivery. Garantir la qualité des livrables et standardiser les processus. Automatiser les tâches répétitives ou sources d’erreur. Sensibiliser et accompagner l’équipe sur les bonnes pratiques DevOps. Ce qui fera votre succès Mindset & Soft Skills Proactivité et ownership : être moteur sur l’amélioration continue et l’évolution des produits. Culture de l’automatisation : chercher systématiquement à simplifier et industrialiser. Communication technique pédagogique : capacité à vulgariser, challenger et guider. Exigence sur la sécurité et l’observabilité , intégrées nativement dans les conceptions. Veille technologique active , notamment sur Kubernetes, CNCF et AWS.
Offre d'emploi
Administrateur(trice) Dataiku DSS - LUXEMBOURG
Publiée le
Dataiku
Python
Scripting
6 mois
40k-60k €
400-600 €
Luxembourg
Mission au Luxembourg. Il est impératif et obligatoire de résider ou être proche frontière LUXEMBOURG Nous recherchons un(e) consultant(e) expérimenté(e) pour administrer et faire évoluer une plateforme Dataiku DSS au sein d’une équipe Data Science & AI. Vous contribuerez également à des projets techniques transverses (OpenShift, DevOps, MLOps, LLMOps). Missions : Administration, maintenance et optimisation de la plateforme Dataiku DSS Automatisation des opérations via Python (monitoring, upgrades, gestion utilisateurs) Support aux utilisateurs (data scientists, analystes, métiers) Collaboration avec les équipes infrastructure (OpenShift / Kubernetes) Développement de composants réutilisables (plugins, recettes, indicateurs) Rédaction et mise à jour de la documentation technique Participation à des projets DevOps, MLOps, LLMOps Profil recherché : Bac+3 à Bac+5 en informatique, data engineering ou équivalent Expérience >6 ans en administration de Dataiku DSS en environnement de production Maîtrise de Python, scripting, CI/CD Connaissances en OpenShift, Kubernetes, Big Data (Hadoop, Spark, Kafka) Autonomie, rigueur, esprit analytique Expérience dans le secteur bancaire appréciée
Mission freelance
Data engineer senior H/F
Publiée le
Google Cloud Platform (GCP)
HFSQL
Python
2 ans
400-450 €
Lille, Hauts-de-France
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Data engineer senior H/F à Lille, France. Contexte : Les missions attendues par le Data engineer senior H/F : Au sein de l'équipe Data Ingénieur, vous serez responsable de la conception, du développement et de la maintenance des infrastructures et pipelines de données permettant de collecter, transformer, stocker et mettre à disposition des données fiables et optimisées pour les besoins analytiques et opérationnels. Concevoir et développer des pipelines ETL/ELT pour l’ingestion et la transformation des données. Assurer la qualité, la cohérence et la sécurité des données dans les systèmes. Optimiser les performances des bases de données et des flux de données. Collaborer avec les Data Scientists, Analystes et équipes métiers pour comprendre les besoins et fournir des solutions adaptées. Mettre en place des outils de monitoring et de gouvernance des données. Garantir la conformité aux normes RGPD et aux politiques internes de sécurité. Compétences techniques : Maîtrise des langages de programmation (Python, SQL). Expérience avec des systèmes de bases de données (relationnelles et NoSQL). Connaissance des plateformes Cloud (GCP, Snowflake). Expérience ETL (Une connaissance de semarchy est un plus) Familiarité avec les outils de workflow (Airflow, PubSub). Bonne compréhension des architectures orientées données (Data Lake, Data Warehouse, Golden).
Mission freelance
Data Engineer | DevOps AWS (H/F)
Publiée le
AWS Cloud
CI/CD
Data analysis
9 mois
400-450 €
Saint-Denis, Île-de-France
Télétravail partiel
Nous recherchons un Data Engineer | DevOps AWS (H/F) pour contribuer à la construction , à l’évolution et à la fiabilité d’un Data Lake stratégique , au cœur des projets liés à l’analyse de l ’expérience utilisateur. Vous interviendrez sur l’ensemble de la chaîne de traitement des données (ingestion, transformation, restitution) au sein d’un environnement AWS moderne, dans une logique d’ industrialisation , de performance et de qualité de service . Vos principales missions : • Maintenir et faire évoluer une architecture data scalable sur AWS , adaptée à des volumes importants de données hétérogènes ( logs, fichiers, API …). • Concevoir et structurer les différentes couches du Data Lake ( Landing, Bronze, Silver ) en lien avec les besoins métiers et les bonnes pratiques data. • Développer des pipelines de traitement de données robustes et automatisés ( ETL/ELT ), en batch ou quasi temps réel , via des services AWS : Glue, Lambda, EMR, Redshift, S3… • Orchestrer les flux de données et automatiser les traitements entre les différentes couches du Data Lake. • Assurer le MCO : surveillance, détection et résolution des incidents, fiabilisation des flux, documentation technique. • Intégrer de nouvelles sources de données aux formats variés ( API REST, fichiers plats, logs applicatifs …) tout en assurant sécurité et performance . • Mettre en place des mécanismes de gestion des rejets et de réconciliation pour garantir la qualité et la cohérence des données. • Participer à l’ amélioration continue de la plateforme (veille, refonte, optimisation) , dans une logique DataOps (CI/CD, qualité, tests, versioning). • Collaborer avec les équipes projet, data analysts, data scientists et métiers pour aligner les solutions techniques avec les usages attendus . • Documenter l’architecture, les traitements et les processus pour assurer la traçabilité, la maintenabilité et la capitalisation.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Gestion d’entreprise : astuces pour freelances IT
- Freelance : peu de retours sur mes candidatures – vos stratégies ?
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- L'EI à l'IS est-elle toujours plus intéressante qu'à l'IR ?
- ESN qui cherche à trop marger
- micro entreprise avant validation ARE
137 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois