L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 4 478 résultats.
Mission freelance
Lead data en Ile de France
Publiée le
Apache Airflow
AWS Cloud
DBT
6 mois
Île-de-France, France
Télétravail partiel
NOUVELLE OPPORTUNITÉ – MISSION FREELANCE Je recrute un(e) TECH LEAD / LEAD DATA pour un client final. Démarrage : début janvier Localisation : Ile de France/ hybride Durée : mission longue, renouvelable Profil recherché Expérience confirmée en TECH LEAD / LEAD DATA => Stacks techniques obligatoires : SQL / Environnement Cloud (AWS) / Snowflake / dbt / Airflow / => BI / Dataviz (ex : Tableau ou équivalent) Solide background technique (Data / Cloud / Engineering) À l’aise avec les enjeux d’architecture, qualité et delivery Responsabilités clés Co-pilotage de l’équipe (priorisation, planification, animation) Binôme étroit avec le Product Owner Encadrement de Data Engineers (internes & externes) Mise en œuvre des bonnes pratiques (DevOps, qualité, FinOps, RUN) Cadrage, découpage et estimation des sujets Data Choix d’architectures et de modélisation Data Livraison des produits dans le respect des délais et standards Gestion des incidents, communication et escalade des risques Contribution à la dynamique collective et aux instances Data/Engineering Objectifs à court/moyen terme Redynamiser et structurer l’équipe Réduire les dépendances individuelles et sécuriser le RUN Auditer l’existant et réduire la dette technique Reprendre et intégrer de nouveaux produits Data stratégiques Accompagner des initiatives à fort enjeu décisionnel Intégrer un nouveau Product Owner
Offre d'emploi
Administrateur BDD PostgreSQL et SQL Server
Publiée le
55k-60k €
Paris, France
Télétravail partiel
Pour le compte de l'un de nos clients grands comptes, nous recherchons un·e Administrateur·trice bases de données PostgreSQL et SQL Server ! ! En tant que DBA niveau 3, vos missions seront : - MCO des BDD PostgreSQL 9.x à 15.x o Montée de version, patch management o Mise en place et gestion Haute Disponibilité o Gestion des incidents o Gestion des problématiques de sauvegarde et de restauration o Réalisation des tâches de changement o Vous savez gérer votre backlog de tickets ainsi que les priorités. Vous êtes réactif o Optimisation de la performance o Automatisation et industrialisation des gestes d'Exploitation, connaissances en Ansible et en scripting Python o Force de proposition sur les aspects Supervision, configuration, et exploitation quotidienne - MCO des BDD SQL Server 2016 à 2022 o Montée de version, patch management o Mise en place et gestion Haute Disponibilité o Gestion des incidents o Gestion des problématiques de sauvegarde et de restauration o Réalisation des tâches de changement o Vous savez gérer votre backlog de tickets ainsi que les priorités. Vous êtes réactif. o Optimisation de la performance o Automatisation et industrialisation des gestes d'Exploitation, connaissances en Ansible et en scripting Python o Force de proposition sur les aspects Supervision, configuration, et exploitation quotidienne - Vous savez travailler en mode projet - Vous aurez des astreintes et des intervention planifiées en HNO - Rédaction de procédures, plan d'actions et rapports d'analyses à la destination des expertises DBA et/ou management - Mise à jour des dossiers d'architecture - Industrialisations ANSIBLE Environnement technique : - PostgreSQL à 80% - SQL Server à 20%
Mission freelance
DBA SQL Server
Publiée le
Microsoft SQL Server
VBA
6 mois
380-460 €
La Défense, Île-de-France
Télétravail partiel
Traiter l’obsolescence des bases SQL Server en version 2016 vers la version SQL 2022. Technique o Vérifier espace disque (binaires, backup, logs) o Télécharger les binaires d’installation (setup SQL Server) o Vérifier la compatibilité OS/SQL version o Vérifier la compatibilité des applications vers SQL Server 2022, les bases doivent être au minimum en niveau de compatibilité 100, en dessous de ce niveau, elles ne sont pas supportées o Désactiver la supervision le temps de l’opération 120 instances à Upgrade (11 déjà fait)
Offre d'emploi
Expert Dataverse
Publiée le
Microsoft Power BI
Power Platform
1 an
Marseille, Provence-Alpes-Côte d'Azur
Nous recherchons, pour notre client, basé dans la région marseillaise, un consultant dont la mission sera d’intervenir sur DATAVERSE (50%) et POWERBI (50%) Tâches à réaliser : Création des environnements Droits et accès Profil utilisateurs Mécanique de livraison Méthodologie de la récupération des données externes Création de l’axe probabilité de défaillance de la solution Création de l’IHM Création ou utilisation d’un sharepoint de stockage des éditions Création du workflow de validation Stockage des éditions et révision Création du suivi
Offre d'emploi
Expert AIX / IBM Power - (H/F)
Publiée le
AIX (Advanced Interactive eXecutive)
VMware
1 an
Île-de-France, France
Télétravail partiel
CONTEXTE DE LA MISSION : Nous recherchons un Expert AIX / IBM Power pour renforcer notre équipe technique et intervenir sur des environnements stratégiques à haute criticité. Vous aurez un rôle clé dans l’administration avancée, le diagnostic et l’optimisation des systèmes AIX et des infrastructures IBM Power. MISSIONS PRINCIPALES : En tant qu’Expert AIX / IBM Power, vous serez en charge de : Administrer et optimiser les environnements AIX sur plateformes IBM Power (Niveau 3). Diagnostiquer, analyser et orienter les investigations sur des incidents complexes. Assurer le maintien en condition opérationnelle et la performance des systèmes. Contribuer à l’automatisation et à l’industrialisation via des scripts (Ansible, Python).
Mission freelance
Développeur Power BI Expert
Publiée le
Microsoft Power BI
3 mois
500-550 €
Île-de-France, France
Télétravail partiel
Mission Freelance – Développeur Power BI Expert – Secteur Luxe – Montreuil / Pantin (93) Pitch Dans le cadre du renforcement de son pôle Data, un grand acteur du secteur du luxe recherche un Développeur Power BI expérimenté pour accompagner la mise en place d’une stratégie BI solide et performante. L’objectif : concevoir et optimiser des dashboards à haute valeur ajoutée dans un environnement exigeant, international et orienté qualité. Missions principales Participer à la conception, modélisation et industrialisation des rapports Power BI Créer des dashboards complexes destinés aux équipes métiers (supply, performance, pilotage) Optimiser les performances des jeux de données et assurer la qualité du reporting Collaborer avec les équipes Data Engineers / Product Owners sur la gouvernance et les pipelines Documenter les solutions mises en œuvre et contribuer à l’amélioration continue des pratiques BI Stack & environnement technique Power BI (expertise obligatoire) DBT / SQL / Azure Data Services Datawarehouse & Dataflows Environnement international – collaboration avec des experts techniques Méthodologie agile
Offre d'emploi
DÉVELOPPEMENT JAVA BACKEND Spring (3-6 ans d'exp)
Publiée le
Java
Spring
Spring Batch
3 ans
40k-55k €
400-500 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : L'entité est en charge du SI du Leasing pour deux lignes métiers:- les financements structurés de la grande clientèle- les financements pour les PME. Le bénéficiaire souhaite mettre en oeuvre plusieurs évolutions de son socle technique. A ce titre, le Bénéficiaire souhaite bénéficier de l'expertise du Prestataire en termes de Conception et développement Dans ce cadre la prestation consiste à contribuer à/au(x) : - La gestion du projet ITRM - La comitologie - Suivi - Reporting Environnement technique : Java 6/7/8/17, spring batch, spring web, xldeplloy, jenkins, SQL, Sonar Autres technologies : XLdeploy, Docker et Kubernetes. 🤝 Livrables : Les livrables attendus sont : Développement JAVA backend pour le projet Maille Contrat (réécriture de l'interface risque). Devops: mise en place de la chaine de déploiement du projet, des serveurs, monitoring etc.
Mission freelance
Senior Data Scientist Python / ML / LLM / Agentic AI
Publiée le
Large Language Model (LLM)
MLOps
Python
12 mois
400-550 €
Paris, France
Télétravail partiel
Contexte Développement de solutions IA avancées pour le projet du client Missions Concevoir, entraîner et optimiser des modèles ML et LLM Implémenter des architectures Agentic AI Industrialiser les modèles (MLOps, monitoring, performance) Collaborer avec les équipes produit et tech Garantir la robustesse et l’éthique des modèles en production Profil recherché 10+ ans d’expérience en data science Excellente maîtrise de Python et des frameworks ML Expérience réelle de LLM et Agentic AI en production Forte capacité d’abstraction et de vulgarisation Experience en IA / AI en production ANGLAIS ASAP
Mission freelance
Data Scientist
Publiée le
API
autonomie
Python
12 mois
Hauts-de-Seine, France
Télétravail partiel
Poste : Data Scientist Senior (>5 ans d’expérience) Objectif : Renforcer une équipe dédiée à la modélisation mathématique, intervenant sur l’optimisation, la simulation, l’analyse de performance, le développement de modèles et outils applicatifs dans un environnement multi-application. Responsabilités principales : Encadrement & supervision : Accompagner un Data Scientist junior, définir les standards méthodologiques, valider approches et modèles, garantir la cohérence des travaux. Développement & modélisation : Développer en Python, créer des APIs, intégrer des modèles, manipuler équations mathématiques, utiliser la librairie HiGHS pour l’optimisation (contraintes, optimisations linéaires/mixte). Contrôle qualité & validation : Revoir le code, auditer l’architecture, vérifier la cohérence des données, valider la robustesse des modèles, challenger les résultats, approuver les livrables. Expertise & conseil : Apporter une expertise sur la modélisation, faire des recommandations méthodologiques, effectuer une veille technologique, capitaliser les bonnes pratiques. Communication & coordination : Présenter les validations, faire le lien entre équipes techniques et direction, participer aux réunions, documenter les processus, contribuer à la montée en compétences du junior. Compétences requises : Maîtrise avancée de Python (APIs, librairies, équations) Maîtrise du solveur HiGHS ou équivalent pour l’optimisation linéaire/quadratique Solide background en mathématiques, physique, modélisation et statistiques Capacité à gérer plusieurs modèles simultanément Excellentes compétences en communication, forte autonomie, posture de référent Compétences appréciées : Expérience avec des modèles mathématiques à grande échelle Aisance en revue méthodologique et cadrage scientifique Aucune connaissance métier spécifique nécessaire
Mission freelance
DBA MS SQL server
Publiée le
microsoft
3 mois
Luxembourg
Nous recherchons un DBA MS SQL Server pour rejoindre une équipe technique dynamique et engagée. Vous interviendrez principalement sur l’ administration des bases de données Microsoft SQL Server , en assurant leur bon fonctionnement, leur performance et leur disponibilité. Vos missions incluront le patching , la maintenance préventive et corrective , ainsi que la gestion des incidents et des évolutions liées aux environnements SQL Server. Vous jouerez également un rôle clé dans l’ accompagnement des équipes de développement , en les conseillant sur l’ optimisation des performances , la bonne écriture des requêtes SQL et les bonnes pratiques en matière de bases de données. Votre expertise contribuera directement à l’amélioration continue des applications et des systèmes existants. Le profil recherché justifie de 2 à 3 ans d’expérience minimum en tant que DBA MS SQL Server , avec une solide maîtrise de l’administration SQL Server. Une bonne capacité de communication et une réelle aisance dans le travail collaboratif avec les développeurs sont indispensables. La maîtrise du français courant et un anglais professionnel sont requis. Démarrage ASAP .
Offre d'emploi
DATA Engineer Senior GCP-python
Publiée le
Gitlab
18 mois
10k-55k €
100-550 €
Paris, France
CONTEXTE Au sein de l’équipe Bronze, la mission se déroulera en collaboration avec les autres équipes de la Data, au coeur de la plateforme Data. Cette équipe est composée d’un product owner, d’un data steward et de deux autres data ingénieurs. Notre stack technique est principalement constituée de Python, Spark, SQL pour les traitements de données, Airflow pour l’orchestration et Cloud Storage et Delta lake pour le stockage. La stack inclut aussi les services BigQuery, Dataproc, PubSub et Cloud Storage de la Google Cloud Platform et Terraform et Terragrunt pour la gestion de l’infrastructure. MISSIONS : Prestation de cette équipe 1. Collecter et centraliser les différentes sources de données non homogènes 2. Assurer la conformité et la sécurité des données 3. Participer aux initiatives de gouvernance des données Prestation du data ingénieur En interaction avec les membres de l’équipe, la mission consiste à : • Participer activement aux différentes phases de conception, de planification et de réalisation des tâches avec l’équipe • Construire et maintenir de pipelines data robustes et scalables • Accompagner les membres de l’équipe dans l’exploitation et le requêtage des données • Organiser et structurer le stockage des données • Mettre en place et maintenir des infrastructures scalables capable de répondre aux besoins et à l’accroissement rapide du volume de données • Construire et maintenir les workflows de la CI/CD • Partager avec les autres data ingénieurs pour appliquer les bonnes pratiques en vigueur • Assurer l’évolutivité, la sécurité, la stabilité des environnements • Participer aux différentes instances des data ingénieurs • Contribuer et veiller à la mise à jour de la documentation • Faire de la veille technologique active dans le domaine Expertises demandées pour la réalisation de la prestation : • Au moins 3 ans d’expérience en tant que Data Ingénieur dans un environnement data • Compétences solides en data : structures de données, code, architecture • Expériences dans la conception et la réalisation de pipelines data • Expériences dans un environnement du cloud Google (GCP) • Expériences intégrant BigQuery et Dataplex Universal Catalog • Expériences intégrant les langages Python et SQL • Expériences intégrant Spark • Expériences intégrant delta lake • Expériences intégrant Terraform et Terragrunt • Expériences intégrant Gitlab et Gitlab CI/CD • Expériences intégrant les méthodologies Agile : Scrum ou Kanban • Capacité à vulgariser et à communiquer sur des aspects purement techniques
Mission freelance
PRODUCT OWNER DATA CRM / DIGITAL
Publiée le
Snowflake
12 mois
560 €
Paris, France
Télétravail partiel
CONTEXTE Le poste s’inscrit chez un grand acteur du Retail à portée internationale. Le PO évoluera au sein d’une équipe Data d’environ 30 personnes, organisée par domaines. Rattachement direct au Lead PO Data Sales / Finance / CRM. Mission : piloter la vision, la roadmap et la valeur produit sur les périmètres CRM, Digital et e-commerce. ENVIRONNEMENT TECHNIQUE – Excellente maîtrise du SQL, notamment sur gros volumes de données. – Stack technologique : – Snowflake (Data Warehouse) – Matillion (ETL), migration vers DBT prévue – QlikSense (reporting et visualisation) ENVIRONNEMENT FONCTIONNEL Le PO intervient sur l’ensemble des sujets Data liés au CRM, au Digital et à l’e-commerce. Responsabilités : – Conception des parcours utilisateurs et définition des KPIs clés. – Rédaction de spécifications fonctionnelles destinées aux Data Engineers / Data Analysts. – Gestion du Data Catalog sur le périmètre attribué. – Garantir le design produit, la cohérence fonctionnelle et la qualité des livrables Data. Cadre de travail : – Méthodologie Agile, sprints de 3 semaines – Outils : JIRA, Confluence Attentes fortes : vision produit, capacité à challenger les besoins métiers, esprit critique élevé. PROFIL RECHERCHÉ – Minimum 8 ans d’expérience dans la Data, dont 4 ans en tant que PO ou Chef de Projet Data. – Solide culture Retail, avec maîtrise des enjeux CRM, omnicanal et e-commerce. – Qualités recherchées : – Autonomie, prise d’initiative – Leadership et capacité à fédérer – Excellentes capacités d’analyse et de structuration – Capacité à challenger et à apporter de la valeur métier
Offre d'emploi
Data Engineer Senior – Palantir Foundry / Databricks – Secteur Assurance
Publiée le
Databricks
Jenkins
Python
1 an
35k-49k €
360-430 €
Île-de-France, France
Télétravail partiel
Rejoignez une équipe internationale dans le secteur de l'assurance/réassurance, au sein d’un environnement technique stimulant. Vous serez en charge de la conception et de la mise en œuvre de solutions de données avancées en utilisant des technologies modernes comme Databricks et Palantir Foundry . Le rôle implique une collaboration étroite avec des équipes produit pour développer des pipelines de données, services et APIs performants. Collecter et analyser les besoins métiers pour répondre aux exigences fonctionnelles et techniques. Concevoir, développer et maintenir des artefacts de données (pipelines, services, APIs) basés sur les meilleures pratiques. Implémenter des cas d’usage liés à l’analyse de données, à l’exploration BI et au calcul distribué. Documenter et optimiser les architectures de données suivant des standards éprouvés (architecture médaillon, GitFlow, etc.). Travailler en collaboration avec des équipes pluridisciplinaires pour garantir des livrables de qualité. Compétences obligatoires : Expertise en Databricks , Palantir Foundry , Python , SQL et Data Visualization . Maîtrise des outils MSDevOps , Jenkins , Artifactory , et Container Registry . Connaissances solides en parallélisation et programmation distribuée . Compétences appréciées : Expérience avec Delta Lake , BlobStorage , FileShare , et l’architecture médaillon.
Offre d'emploi
Data Engineer H/F
Publiée le
45k-55k €
Nantes, Pays de la Loire
Télétravail partiel
Nous recherchons un(e) Data Engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Participer à la conception et réalisation d'une solution Data depuis l'acquisition jusqu'à l'exploitation de la donnée en accompagnant la réflexion des directions métiers • Identifier, collecter et intégrer les données nécessaires à la résolution de problématiques métier et opérationnelles • Garantir la qualité des données en mettant en place les outils de mesure et de suivi adéquats en appliquant les règles de Data Gouvernance et de Data Management • Transcrire des besoins métier en règles de gestion data • Industrialiser le déploiement de vos réalisations à travers l'implémentation de tests unitaires, d'intégration et de non-régression Référence de l'offre : 729z7ixwq0
Offre d'emploi
Ingénieur DevOps (H/F)
Publiée le
Ansible
AWS CloudFormation
Bash
35k-50k €
France
Télétravail 100%
Au sein d’Atyos, nous évoluons dans un contexte pur Cloud, qui vous permettra de travailler sur des sujets d’automatisation d’environnements et de mise en place de pipeline CI/CD sur la plateforme Cloud AWS Nous attachons beaucoup d’importance à la curiosité et à la veille technologique et nous offrons du temps et des moyens à chacun pour se former et se certifier sur les technologies que nous utilisons ou que nous utiliserons. La mission: La mise en place de workflows d’intégration et de déploiement continu Le design des processus de déploiement d’application traditionnelles et cloud native L’automatisation des déploiements des différents environnements L’accompagnement des évolutions de plateformes, afin de soutenir au mieux les applications La mise en place des process de monitoring / alerting / logging La consolidation et la refactorisation des scripts d’IaC Mise en place de tests de performance Notre contexte technique: OS : Amazon Linux, CentOS/RHEL, Windows Server Orchestration des conteneurs : Amazon ECS, Kubernetes Infrastructure as Code : Terraform, Ansible Gestion de code source : GitLab, GitHub CI/CD : GitLab CI, GitHub Action Scripting : Bash, Python, PowerShell Monitoring : Prometheus, Grafana
Mission freelance
Architecte SI - Data / Cloud (H/F)
Publiée le
SI
6 mois
800-900 €
Toulouse, Occitanie
Télétravail partiel
Notre client, acteur majeur du secteur aéronautique, crée un nouveau poste d’Architecte SI Data & Cloud (H/F) dans le cadre du renforcement de sa stratégie de modernisation autour de la donnée, du cloud et des architectures distribuées. Ce poste s’inscrit dans un contexte de structuration : les équipes et les pratiques d’architecture ne sont aujourd’hui pas encore clairement identifiées, et le futur Architecte aura un rôle clé dans leur définition, leur alignement et leur montée en maturité, en particulier sur les sujets data, cloud et microservices. Vos missions Rattaché à la Direction IT et en lien direct avec les équipes techniques et métiers, vous serez en charge de : • Structurer et coordonner les architectures Data & Cloud existantes tout en harmonisant les pratiques, • Définir le cadre et les processus d’architecture en collaboration avec les parties prenantes, avec un focus sur les environnements cloud et les approches microservices, • Mettre en place une gouvernance efficace et contribuer à l’application de la politique IT et Data, • Accompagner la montée en compétence et la structuration des équipes sur les technologies data, cloud et conteneurisation, • Contribuer à la stratégie de gouvernance des données, à la définition des architectures distribuées et à la cohérence globale du SI. Compétences techniques requises • Expérience confirmée en architecture Data, Cloud et microservices (technique et fonctionnelle), • Bonne compréhension des besoins métiers et capacité à définir des spécifications adaptées aux usages data, • Connaissances en data gouvernance, data management et conception d’architectures distribuées, • Maîtrise des environnements Cloud (Azure, AWS ou GCP) et des solutions de conteneurisation (Kubernetes, Docker), • Anglais professionnel apprécié.
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Traitement fiscal des cotisations sociales payées en 2025 sur CA micro-BNC 2024
- La Société de portage avec qui j'ai signé m'impose la soltion MAY
- Utiliser Qonto pour créer la microentreprise
- Compte dédié micro-entreprise
- Service de comptabilité en ligne fiable et réactif pour une succursale de SASU
- Offre propulse IT
4478 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois