L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 1 809 résultats.
Offre d'emploi
Business Analyst Data Collibra
Publiée le
Collibra
Data governance
Snowflake
1 an
La Défense, Île-de-France
Télétravail partiel
Dans le cadre du développement de la data marketplace d'un de nos clients et de la mise en place d’une vision 360° client, nous recherchons un Business Analyst spécialisé Data . Vos missions : Organiser l'étude et recueillir les éléments de toutes les parties prenantes Comprendre l'ambition, les enjeux et les objectifs de l'entreprise Organiser et diriger des ateliers avec les entreprises Alimenter le semantic model / référentiel pour une vision 360° client. Recueillir les besoins métiers et concevoir les modèles sémantiques. Collaborer avec les équipes data
Offre d'emploi
Chef de projet Data IA (7 ans et plus)
Publiée le
Confluence
IA Générative
JIRA
3 ans
40k-65k €
450-600 €
Paris, France
Télétravail partiel
🏭 Secteurs stratégiques : Banque d’investissement 🗓 Démarrage : ASAP PAS DE FULL REMOTE NI SOUS TRAITANCE MERCI 💡 Contexte /Objectifs : Data & IA et chef de projet, mission de caderage et conduite des projets d'intégration de l'intelligence artificielle (IA) et d'analyse de données pour améliorer les processus métiers et les performances de l'entreprise. Investiguation, description et analyse des processus existants pour identifier les opportunités d'amélioration et de mise en œuvre de l'IA. 💡 La mission Consiste à : 1. Investigation et analyse des processus : Étudie et compréhension des processus métiers existants, identifier les opportunités d'amélioration et de mise en œuvre de l'IA. 2. Analyse quantitative : Réalisation des analyses quantitatives pour évaluer les opportunités d'amélioration, en utilisant des données telles que les parcours clients, les données d'utilisation, etc. 3. Collaboration avec les data scientists : Travail avec les data scientists, étude, proposition et test des solutions internes ou externes pour améliorer les processus métiers. 4. Definir la vision et de la stratégie : Collaboration avec les experts métiers, les product owners, les développeurs et les data scientists pour définir la vision, la stratégie et l'approche de validation des projets (notamment l’approche de testings et les metrics associées). 5. Gestion de projet : Bonne traduction des besoins dans une roadmap claire, réaliste et acceptée par toutes les parties prenantes, et animation du projet pour garantir la qualité, les délais et les coûts. 6. Coordination et synergie : Coordination et la synergie entre les différents projets et les différentes équipes, en favorisant les échanges, les retours d'expérience et les bonnes pratiques
Mission freelance
Consultant Data / Prism Q1-2026
Publiée le
Blue Prism
6 mois
400-610 €
Vélizy-Villacoublay, Île-de-France
Télétravail partiel
Contexte et Objectif Le projet Prism consiste à développer et maintenir une application de gestion proactive des risques fournisseurs pour la supply chain. L’objectif est de naviguer dans les données produits et fournisseurs pour identifier les risques, être alerté en cas d’événements critiques et simuler des scénarios (rupture fournisseur, hausse de volume) afin de proposer des actions correctives. Sources de données ERP (SAP ECC, Oracle E-Business Suite), plateformes e-Procurement, fichiers externes. Certaines données sont sensibles et soumises à des règles de contrôle à l’export. Missions principales Étudier et intégrer de nouvelles données dans l’application Prism. Définir, extraire, préparer et intégrer les données. Automatiser les traitements et assurer la mise à jour récurrente des données. Contrôler la qualité des livraisons éditeur et participer aux tests applicatifs. Maintenir le référentiel fournisseurs et préparer son intégration dans les plateformes de gestion achats. Piloter les prestataires et l’éditeur sur les déploiements, upgrades, incidents et suivi du run. Optimiser l’allocation des ressources (CPU/h) et suivre le runtime via dashboards. Découpage des tâches T1 : Ajout et intégration de nouvelles données. T2 : Mise à jour récurrente, extraction, chargement, analyse qualité. T3 : Documentation des traitements de données. T4 : Contrôle qualité, tests, gestion des erreurs et KPIs. T5 : Support à l’éditeur et à l’équipe technique. T6 : Maintenance du référentiel fournisseurs. T7 : Pilotage des déploiements et incidents. T8 : Suivi et optimisation du runtime via dashboards. Compétences requises Techniques : Modélisation de données achats/industrie, maîtrise de SAP ECC (MM, PP, CO), SAP BW, Oracle EBS, Ivalua, Power BI, Excel Power Query, Python, Javascript, Shell Unix, PowerShell, C3AI. Analyse : Amélioration de la qualité des données, architecture fonctionnelle et technique. Autres : Connaissance de l’environnement industriel et anglais professionnel. Livrables attendus Documentation sur les traitements de données. Fichiers de suivi du runtime et dashboards. Contraintes et exigences Employé d’une société de droit français. Signature d’un engagement de confidentialité. Respect des contraintes réglementaires liées aux données sensibles. Planning Début de la mission : 05/01/2026
Mission freelance
Data Privacy COE Expert
Publiée le
Reporting
18 mois
100-600 €
Paris, France
Télétravail partiel
CONTEXTE Experience : 5 ans et plus Métiers Fonctions : Pilotage de projet ou de programme,Expert Spécialités technologiques : RGPD,Reporting,Gestion de projet Type de facturation : Assistance Technique (Facturation avec un taux journalier) Compétences : Méthodes / Normes Adapter Soft skills Rigueur Adaptation Langues Français Anglais MISSIONS Contexte de la mission La mission s’inscrit dans un contexte de renforcement de la conformité réglementaire en matière de protection des données personnelles au sein d’un environnement international complexe. L’objectif est d’assurer l’adaptation, la mise en œuvre et le suivi des politiques de Data Privacy conformément aux législations applicables (RGPD, lois locales et standards internes). Le consultant interviendra en coordination étroite avec les équipes juridiques, IT et de gouvernance afin de garantir la conformité, la sécurité et la cohérence des pratiques de traitement des données à caractère personnel. Le consultant aura pour mission principale de développer, adapter et piloter les politiques de confidentialité et de protection des données, ainsi que d’assurer un rôle d’expertise et de conseil transverse. Principales responsabilités : - Développement et adaptation des politiques internes de confidentialité conformément aux lois et règlements applicables ; - Élaboration et mise à jour des formulaires de consentement, autorisations, notices d’information et supports de communication liés à la protection des données ; - Mise en œuvre et suivi des exigences détaillées nécessaires pour assurer une gestion conforme des traitements spécifiques ; - Formation et accompagnement des équipes métiers sur les enjeux de conformité et de protection des données personnelles ; - Gestion et contrôle du registre de traitement des données (Data Protection Register) ; - Support et validation des projets nécessitant une évaluation d’impact relative à la vie privée (DPIA) et émission d’avis de conformité ; - Interface avec les équipes dédiées à la gestion des demandes d’accès, incidents et violations de données personnelles ; - Rédaction et revue d’accords de confidentialité, d’évaluations d’impact, de clauses contractuelles et de notes de position ; - Analyse et supervision des activités métiers et de la conformité des contrats fournisseurs ; - Participation aux comités de gouvernance liés à la protection des données ; - Suivi permanent de la conformité et reporting vers les instances de gouvernance internes. Expertise souhaitée - Expérience préalable en Data Privacy / Compliance (profil juridique ou IT sécurité) ; - Solide compréhension des cadres réglementaires : RGPD, directives européennes, bonnes pratiques de conformité ; - Maîtrise de la gestion du risque lié à la donnée (registre, DPIA, reporting, audit) ; - Capacité à analyser les traitements et à recommander des actions correctives.
Mission freelance
Business analyst Data
Publiée le
Business Analyst
Data quality
1 an
520-580 €
Paris, France
Télétravail partiel
Notre client, filiale bancaire d’un grand groupe industriel international, recherche un(e) Business Analyst Data confirmé(e) pour renforcer ses équipes. Vos missions principales Assurer la qualité des données dans le respect des standards définis Traiter et suivre les tickets liés aux anomalies ou demandes d’évolution des données Travailler en interaction étroite avec les métiers Data (Data Stewards, Data Owners) pour garantir la cohérence et la fiabilité des données Participer aux comités de pilotage et aux ateliers métiers/IT pour la mise en œuvre des actions correctives Suivre et documenter les processus de data quality et les indicateurs de performance associés Contribuer à l’amélioration continue des outils et des process de gouvernance de données
Mission freelance
Data Engineer AWS
Publiée le
AWS Cloud
PySpark
Python
12 mois
550-580 €
Paris, France
Télétravail partiel
En quelques mots Cherry Pick est à la recherche d'un "Data Engineer AWS" pour un client dans le secteur des transports Description 🎯 Contexte de la mission Au sein du domaine Data & IA , le client recherche un MLOps Engineer / Data Engineer confirmé pour intervenir sur l’ensemble du cycle de vie des solutions d’intelligence artificielle. L’objectif : industrialiser, fiabiliser et superviser la production des modèles IA dans un environnement cloud AWS à forte exigence technique et opérationnelle. Le poste s’inscrit dans une dynamique d’ industrialisation avancée et de collaboration étroite avec les Data Scientists , au sein d’une équipe d’experts en intelligence artificielle et data engineering. ⚙️ Rôle et responsabilités Le consultant interviendra sur les volets suivants : Industrialisation & CI/CD : Mise en place et maintenance de pipelines CI/CD avec GitLab, Docker, Terraform et Kubernetes . Infrastructure & automatisation : Gestion et optimisation des environnements AWS (S3, EMR, SageMaker, IAM, etc.) , mise en place de bonnes pratiques IaC. Data Engineering / Spark : Développement et optimisation de traitements Spark pour la préparation et la transformation de données à grande échelle. MLOps & Production : Déploiement, suivi et supervision des modèles IA via MLflow , et Datadog , gestion du monitoring et des performances. Collaboration transverse : Travail en binôme avec les Data Scientists pour fiabiliser le delivery, optimiser les modèles et fluidifier le passage en production. Amélioration continue & veille : Contribution à la montée en maturité technique, documentation, partage de bonnes pratiques et optimisation continue des pipelines.
Mission freelance
TRANSVERSAL DATA PRODUCT OWNER H/F
Publiée le
BI
Data visualisation
2 ans
400-500 €
Annecy, Auvergne-Rhône-Alpes
Télétravail partiel
Basée à Lille, Lyon, Nantes, Grenoble et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un TRANSVERSAL DATA PRODUCT OWNER H/F à Annecy, France. Fluent en anglais (contexte international) ! Responsabilités principales Piloter la définition de la feuille de route et la planification des sprints en collaboration avec les Product Owners de la plateforme Data/BI, en étant responsable de la fixation de délais, en tenant compte des priorités métiers et de la capacité réelle de l’équipe. Mettre en place et consolider des réunions récurrentes avec les Product Owners de la plateforme Data/BI et les experts pour garantir l’alignement interne et l’adoption du cadre produit, tant dans les activités de livraison que de découverte. Animer des sessions de découverte pour recueillir les besoins métiers, rédiger des user stories, challenger et prioriser les activités tout en proposant proactivement des solutions et en évaluant leur faisabilité avec les Product Owners de la plateforme Data/BI. Gérer les comptes-rendus de réunion, assurer le suivi avec les métiers et soutenir les équipes lors de la validation et des tests des données. Assurer le suivi avec les parties prenantes sur l’état d’avancement des livrables, la communication et l’adoption des différents produits data pour alimenter les améliorations continues.
Offre d'emploi
Cybersécurité gouvernance / Cybersecurity Officer
Publiée le
Big Data
Cybersécurité
1 an
40k-45k €
400-600 €
Île-de-France, France
Télétravail partiel
Le bénéficiaire souhaite une prestation d'accompagnement dans le cadre du Group Data CISO vis à vis de l'évolution de la stratégie relative à la sécurité de la DATA en étant l'interlocuteur privilégié des différentes fonctions ayant des responsabilités vis à vis de Data. Il est un élément clé dans la préparation et l'organisation des "Group Data Steering Committee" Missions principales Interaction avec l'ensemble des parties prenantes pour définir les priorités en termes d'exigences cyber autour de la Data
Mission freelance
DATA ENGINEER TALEND
Publiée le
Talend
1 an
280-480 €
Paris, France
Télétravail partiel
Bonjour, Nous recherchons un Data Engineer Talend afin de renforcer notre équipe Data et participer à la conception, au développement et à l’optimisation de nos plateformes d’intégration de données. Missions principales 1. Développement et maintenance des flux de données Concevoir, développer et maintenir des flux ETL sous Talend (Talend Open Studio / Talend Data Integration). Mettre en œuvre des pipelines d’ingestion, de transformation et d'alimentation des systèmes cibles (Data Warehouse, Data Lake, applications métier…). Intégrer des données provenant de sources variées : bases relationnelles, APIs, fichiers, systèmes internes ou externes. 2. Optimisation et performance des jobs Optimiser les traitements existants pour améliorer les performances, la scalabilité et les temps de calcul . Identifier les points de contention et proposer des solutions d’industrialisation. Mettre en place de bonnes pratiques de développement ETL et d’orchestration. 3. Qualité, fiabilité et gouvernance des données Garantir la qualité , la cohérence et la fiabilité des données transportées. Implémenter des contrôles automatiques (data quality, validation, dédoublonnage, gestion des anomalies). Assurer la traçabilité et la documentation des flux en conformité avec les standards Data de l’entreprise. 4. Collaboration et support Travailler étroitement avec les équipes Data, BI, Architecture et les équipes métiers. Participer aux phases de design technique, aux revues de code et aux déploiements. Assurer un support de niveau 2/3 sur les flux en production. Compétences requises Maîtrise de Talend (TOS ou Talend Data Integration). Solides compétences en SQL et en manipulation de bases de données (Oracle, PostgreSQL, SQL Server…). Connaissances en optimisation ETL , gestion des performances et industrialisation. Compréhension des architectures Data : ETL/ELT, Data Warehouse, Data Lake. Connaissance des bonnes pratiques de Data Quality. Capacité d’analyse, rigueur et sens du détail. Compétences appréciées Connaissances des environnements cloud (AWS, GCP, Azure). Notions de scripting (Python, Shell). Expérience sur des outils de supervision et d'orchestration (Airflow, Control-M, Talend TAC).
Mission freelance
Développeur ETL / Data Engineer (DataStage, Unix, Control-M)
Publiée le
AWS Cloud
Azure
CI/CD
1 an
Montréal, Québec, Canada
Télétravail partiel
📌 Mission Freelance – Développeur ETL / Data Engineer (DataStage, Unix, Control-M) 🎯 Contexte de la mission : Dans le cadre d’un programme stratégique d’industrialisation et de modernisation de nos chaînes de traitement data, nous recherchons plusieurs Développeurs ETL / Data Engineers maîtrisant DataStage, Unix et Control-M. Un des profils recherchés devra assurer un rôle de Lead Technique sur le développement (pas de gestion projet — un encadrement existe déjà). 🛠️ Compétences techniques requises Obligatoires : Expertise IBM DataStage (développement, optimisation, debugging, bonnes pratiques ETL) Très bonne maîtrise Unix/Linux (bash/ksh, scripts, automatisation) Compétence avérée Control-M (ordonnancement, dépendances, troubleshooting) SQL avancé (optimisation, analyse de performances) Pratique d’outils de versioning (Git, RTC), CI/CD, intégration & déploiements Souhaitées Python ou Java pour automatisation / outils internes Connaissances Data Lake / Data Warehouse Notions Cloud (Azure, AWS ou GCP) 🎯 Rôle & Responsabilités Pour les développeurs : Concevoir, développer et maintenir des jobs ETL sous DataStage Implémenter des scripts Unix et automatisations Intégrer et opérer les chaînes de traitement sous Control-M Analyser les performances, optimiser et fiabiliser les pipelines Participer aux déploiements et aux revues de code Contribuer à la mise en place des bonnes pratiques de développement Pour le Lead Développement : Encadrer techniquement les autres développeurs ETL Assurer la qualité du code, des jobs et des livrables Être point d’escalade pour les problématiques techniques DataStage/Control-M Réaliser des revues techniques, challenger les designs et améliorer les patterns ETL
Mission freelance
CONSULTANT MOE BI ORIENTE DATA
Publiée le
BI
MOE
24 mois
275-550 €
Nanterre, Île-de-France
Télétravail partiel
Consultant MOE BI / Domaine Socle Data Expérience ciblée : 3-4 ans minimum Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
Mission freelance
Data Analyst
Publiée le
Méthode Agile
1 an
320-500 €
Bordeaux, Nouvelle-Aquitaine
Télétravail partiel
La mission de Data Analyst au sein du département IAC (Inscription, Actualisation, Contrôle) vise à accompagner la transformation de la DSI vers un mode produit en valorisant les données pour mesurer la valeur créée, le suivi des OKR et le comportement des usagers. Intégré aux équipes produit, le Data Analyst recueille, exploite et interprète les données issues du système d’information et de sources externes afin de produire des indicateurs fiables, pertinents et lisibles facilitant la prise de décision. Il accompagne les équipes dans la définition de leurs besoins, conçoit des tableaux de bord, garantit la qualité des données et contribue à diffuser une culture de la donnée. Force de proposition, rigoureux, réactif et doté d’un bon esprit analytique et relationnel, il maîtrise les outils de consolidation tels que Dataiku et SQL, et met son expertise au service de la performance et de la mesure de la valeur des produits du département.
Offre d'emploi
Senior Data engineer AWS
Publiée le
Terraform
18 mois
40k-45k €
100-550 €
Paris, France
Télétravail partiel
CONTEXTE : Experience : 7 ans et plus Métiers Fonctions : Data Management, Software engineer Spécialités technologiques : Data Compétences Technologies et Outils AWS Spark Airflow Snowflake Secteurs d'activités Services Informatiques Conseil en organisation, stratégie MISSIONS Rattaché(e) au périmètre du Responsable Data Platform, vos missions consisteront à : - Développer des pipelines et ETL sur AWS vers Snowflake - Mettre en place des stockage optimisé grâce aux technologies lakehouse et en particulier DeltaLake - Créer des jobs manipulant la donnée avec SQL et Python (pandas et ou Polars) - Réaliser les traitements de volume de données massives avec PySpark - Développer et maintenir des infrastructures avec de l’IaC et en particulier avec Terraform - Orchestrer les différents traitements via Airflow - Déployer et maintenir des applications via la CI/CD - Participer aux réflexions et au design d’architecture - Bonne capacité de vulgarisation et de communication - Participer aux rituels agiles de l’équipe - Contribuer à la documentation technique et fonctionnelle 5 à 10 ans en tant que Data Engineer, avec une expérience significative sur AWS. Un positionnement en tant que techlead serait un plus. De l’expérience dans un contexte BI serait un plus. Un positionnement ou une expérience en tant que DevOps serait un plus. Expertise souhaitée Python, PySpark, AWS (EMR, S3, Lambda), Airflow, SQL, Snowflake, Terraform, Databricks, Gitlab.
Mission freelance
Data Engineer (Semarchy) – Gouvernance & Qualité de Données
Publiée le
Semarchy
SQL
6 mois
350-500 €
Paris, France
Télétravail partiel
Dans le cadre d’un vaste programme de modernisation du Système d’Information, vous intégrerez une équipe Data composée de plus de 100 collaborateurs, dédiée à la gouvernance et à la qualité de service des données. Vous contribuerez activement au développement, à l’automatisation et au suivi des traitements Data sur des environnements complexes et fortement intégrés. Vos missions principales : Développer des outils et process de gouvernance et de pilotage de la qualité des données Concevoir et maintenir des traitements ETL industrialisés ou ad hoc pour fiabiliser les données Participer au suivi de production et à l’analyse des incidents N1/N2 Produire des rapports et indicateurs de pilotage de la qualité de service Contribuer à l’ amélioration continue des pratiques Data
Offre d'emploi
Ingénieur DevOps / Data Platform (Kubernetes – GitLab – Vault)
Publiée le
Azure Kubernetes Service (AKS)
CI/CD
3 ans
Île-de-France, France
Contexte Nous recherchons un Ingénieur DevOps / Data Platform pour accompagner notre client dans le cadre du service de Data Architecture Doc Factory . L’objectif est de fournir et de maintenir l’outillage facilitant l’intégration des solutions Data du Groupe, de définir des standards d’intégration, et d’accompagner les équipes projet dans leurs usages. 🎯 Missions Vous intervenez au sein de la Data Factory et êtes responsable de : Maintenance & Exploitation Assurer le MCO des outils d’intégration (CodeHub, Vault, Consul, GitLab CI, ArgoCD, Kubernetes). Suivre la stabilité, la performance et la sécurité des environnements. Industrialisation & Automatisation Améliorer l’industrialisation des outils et pipelines CI/CD. Automatiser les déploiements, renforcer la standardisation via des templates. Migration OpenShift & Sécurité Participer au projet de migration vers OpenShift BNP Paribas. Sécuriser les environnements (RBAC, secrets, policies, durcissement). Standardisation & Templates Maintenir et enrichir les modèles d’intégration (pipelines, charts Helm, manifests K8s). Garantir leur conformité aux standards Data & sécurité du Groupe. Accompagnement & Support Accompagner les équipes Data dans le design et l’intégration de leurs solutions. Former et conseiller sur les bonnes pratiques DevOps/DataOps. Monitoring & Observabilité Contribuer à l’amélioration du monitoring (Dynatrace, alerting, dashboards). Suivre la fiabilité et la performance des solutions intégrées. Innovation Tester de nouvelles technologies et proposer des améliorations pour enrichir l’offre de service. Participer aux études d’architecture et PoC Data Platform.
Offre d'emploi
Architecte Data Expérimenté
Publiée le
Big Data
Cloudera
Teradata
3 ans
Île-de-France, France
Télétravail partiel
Dans le cadre du renforcement de l'équipe Socles Data pour un grand acteur bancaire, nous recherchons un Architecte technique Solutions Data. Sa mission consistera à : - Accompagner les équipes Data en expertise sur les solutions et architectures actuelles autour des deux grandes plateformes DATA que sont Teradata et Cloudera CDP (HDFS, Hive, Spark, Hbase,...). - Participer aux réflexions et aux études sur les trajectoires DATA (dont la trajectoire post SAS). - Apporter une expertise sur les architectures de traitement des données en temps réel (KAFKA) ainsi que leur exposition en mode API. - Accompagner la modernisation technologique sur des solutions innovantes de type Data LakeHouse “On premise” (Storage MINIO, Compute KUB, Processisng SPARK et TRINO, Services JUPYTER) et “Cloud/GCP” (Big Query, ....).
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
- Quelles nouvelles fonctionnalités aimeriez-vous voir sur Free-Work ?
- Identifier les partenaires directs des Grands Groupes (sans intermédiaires)
- Stratégie épuisement des fonds jusqu'à la retraite
- Offre archivée
- SASU est ce que le pv d'ag existe ou seulement décision de l'associ unique?
- 𝒯-ℰ-ℳ-U "deutschland" Gutscheincode (ACW867474):➛ 100€ Rabatt November 2025
1809 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois