Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 736 résultats.
Freelance

Mission freelance
SAP Finance Data Governance Expert

Signe +
Publiée le
SAP S/4HANA

1 an
600-800 €
Paris, France
Dans le cadre d’un programme international de transformation digitale, un groupe déploie un ERP unique basé sur SAP S/4HANA Public Cloud afin d’harmoniser ses processus Finance. Ce programme vise à mettre en place un modèle de données global, standardisé et gouverné , garantissant qualité, fiabilité et conformité des données financières dans un environnement multi-pays. Rattaché(e) au programme Finance Transformation, vous êtes le/la référent(e) Data Governance sur le périmètre Finance. À ce titre, vous : Définissez et structurez le framework de Finance Data Governance Formalisez les rôles et responsabilités (Data Owners, Data Stewards) Définissez et maintenez le Finance Data Model cible Mettez en place les règles et indicateurs de Data Quality Supervisez les activités de nettoyage et de remédiation des données Encadrez les règles de mapping et de transformation dans le cadre des migrations SAP S/4 HANA Assurez la cohérence des données entre systèmes et flux inter-applicatifs Garantissez l’alignement avec les exigences réglementaires et de contrôle interne Animez les instances de gouvernance Data et accompagnez l’adoption au niveau global Des interactions fréquentes avec les équipes Finance, IT et Process Owners sont attendues. Des déplacements peuvent être à prévoir en phase de déploiement. Démarrage : Mars 2026 Durée : 1 an renouvelable Localisation : Paris ou Grenoble (2/3 jours de présentiel)
Freelance

Mission freelance
Data Analyst experimenté - Nantes

VISIAN
Publiée le
SQL

3 ans
400 €
Nantes, Pays de la Loire
Contexte Au sein d’une entité Data d’un grand groupe bancaire, la mission s’inscrit dans une équipe chargée de la conception, de la fabrication et de la mise à disposition de jeux de données à destination de multiples entités internes. L’activité s’appuie sur plusieurs plateformes décisionnelles et entrepôts de données et s’exerce dans un cadre réglementaire et sécuritaire strict (protection des données, conformité, éthique d’usage). L’équipe intervient notamment pour des besoins d’audit, de conformité réglementaire, d’analyses exploratoires ou de soutien à des projets métiers (innovation, data science, nouveaux produits). Missions Cadrage et analyse des besoins Recueillir et analyser les demandes d’extraction ou de mise à disposition de données Accompagner les utilisateurs dans la formalisation des besoins et des règles de gestion associées Réaliser les analyses d’impact sur les systèmes existants Identifier les sources de données pertinentes et les outils d’extraction adaptés Production et livraison des jeux de données Concevoir et piloter la fabrication de jeux de données ou requêtes d’extraction Garantir la qualité, la cohérence et l’exploitabilité des données livrées Organiser la phase de recette avec les équipes métiers et utilisateurs Contribuer à l’industrialisation de certains cas d’usage Gouvernance, conformité et sécurité Veiller au respect des contraintes réglementaires et de protection des données Mettre en œuvre les contrôles d’accès et d’usage appropriés Collaborer avec les acteurs de gouvernance Data pour valider l’exploitabilité et la diffusion des données Coordination et communication Assurer l’interface avec les entités demandeuses et les parties prenantes internes Animer des ateliers d’étude multi-acteurs Promouvoir l’offre de services de l’équipe et produire les supports associés Mettre en place et suivre les indicateurs de performance du service Capitalisation et documentation Structurer et maintenir la documentation des dossiers traités Contribuer au partage de connaissances et à la montée en compétence collective Environnement technique Bases de données relationnelles et décisionnelles SQL (dont environnements décisionnels) Outils de reporting et de BI Outils d’extraction et de traitement de données Outils de gouvernance et de documentation de la donnée Outils bureautiques avancés Informations complémentaires Mission en environnement fortement réglementé Interactions fréquentes avec des interlocuteurs variés (métiers, data, gouvernance, conformité) Accès à des données sensibles nécessitant le respect strict des procédures de sécurité
Freelance
CDI

Offre d'emploi
Data Product Manager – CRM & Customer Knowledge

KP2i
Publiée le
BI
Confluence
CRM

1 an
40k-45k €
400-720 €
Île-de-France, France
Transformation Data & Marketing – Environnement internationalContexte Grand groupe international en forte transformation digitale recherche un(e) Data Product Manager pour piloter des initiatives stratégiques liées à la connaissance client et à la performance CRM. Rattaché(e) à une organisation Data en mode Tribe / Feature Teams, le poste est au croisement des équipes Marketing, CRM, Produit et Data Engineering. L’objectif est de structurer et industrialiser des produits data à fort impact business, tout en sécurisant des chantiers de transformation majeurs. Finalité du poste Piloter des produits data orientés connaissance client et activation CRM afin de : Améliorer la performance e-commerce Optimiser la valeur client Renforcer la qualité et l’exploitabilité des données marketing Sécuriser des programmes de transformation Martech Missions principales1. Pilotage d’initiatives stratégiques Contribuer au cadrage de programmes structurants liés à la connaissance client Industrialiser les audiences prioritaires et structurer les signaux comportementaux Améliorer la couverture et la qualité de la base contactable Mettre en place des mécanismes de mesure de valeur incrémentale Piloter une migration de plateforme marketing automation (refonte des flux, modèles de données, segments, gouvernance) 2. Coordination transverse Animer les instances de pilotage (comités, ateliers de priorisation, steering committees) Aligner les visions business, produit et technique Assurer la fluidité des échanges entre CRM, Marketing, Data et Engineering Clarifier les rôles et responsabilités (RACI) 3. Pilotage produit & delivery Co-construire les roadmaps en collaboration avec les Product Owners Prioriser selon l’impact business et la création de valeur Suivre les jalons, dépendances et risques Garantir la qualité et le respect des délais Participer aux rituels agiles (PI Planning, Sprint Reviews) 4. Reporting & communication Assurer un reporting régulier auprès des sponsors et du management Préparer les supports de pilotage (roadmap, bilans, comités stratégiques) Communiquer de manière claire et pédagogique sur les enjeux data
Freelance

Mission freelance
Mission Développeur Back-End Python – Projet Data & Imagerie Satellite (H/F)

Freelance.com
Publiée le
Ansible
Apache Airflow
CI/CD

1 an
510-580 €
Île-de-France, France
Dans le cadre du développement d’un nouveau système de détection automatisée d’objets d’intérêt sur des images satellites, nous recherchons un développeur back-end Python expérimenté. Ce projet stratégique vise à concevoir une nouvelle plateforme indépendante de l’application historique existante, avec une attention particulière portée à la robustesse et à la scalabilité de l’architecture dès les premières phases. Vous interviendrez au sein d’une petite équipe de développement composée de trois ingénieurs, dans un contexte où les choix techniques et l’architecture du système auront un impact structurant pour les évolutions futures de la solution. Les principales responsabilités incluent la conception et le développement d’API REST en Python (FastAPI), la modélisation et l’optimisation de bases de données — principalement PostgreSQL — ainsi que la structuration des fondations techniques d’un système destiné à monter en charge. Vous participerez également à l’automatisation des déploiements via des outils de conteneurisation et de CI/CD, et contribuerez à la mise en place de tests automatisés et à l’amélioration continue de l’architecture applicative
CDI

Offre d'emploi
Tech Lead Data Engineer H/F

JEMS
Publiée le

50k-75k €
Levallois-Perret, Île-de-France
Nous recherchons un(e) Tech Lead Data Engineer capable de trouver des solutions innovantes et robustes à l'ensemble des problématiques Data. Vous aurez la charge de : • Assurer la mise en œuvre de l'accès, du référencement et de la qualité de la donnée • Assurer l'industrialisation, la supervision et l'intégration des solutions • Rédiger les normes de développement • Participer à la rédaction du manuel d'exploitation En tant que Tech Lead, vous savez : • Vous présenter et promouvoir des architectures data face au client • Identifier et comprendre les besoins métiers • Former, encadrer et faire évoluer les consultants juniors • Participer à la réponse aux appels d'offres (avant-vente) Référence de l'offre : 5nko8xh5pb
Freelance
CDI

Offre d'emploi
Consultant Confirmé en Data gouvernance Collibra

R&S TELECOM
Publiée le
Microsoft Access

12 mois
40k-48k €
400-480 €
Paris, France
Contexte de la mission : Dans le cadre du déploiement et de l’industrialisation de notre démarche de gouvernance des données, nous recherchons un consultant expert technique Collibra. La mission s’inscrit dans un programme structurant visant à renforcer le catalogage des données et la traçabilité (data lineage). Le consultant intégrera l’équipe Data en lien direct avec les architectes de la DSI qui ont une vision sur l’ensemble de la chaîne de valeur de la donnée, de l’acquisition à la restitution. Tâches à réaliser : · L’operating model de Collibra et la capacité à modifier les settings sur sa partie OOTB ou custom (asset type, attributs, relations…) selon un scope puis mesurer les impacts sur l’existant DEV/PROD et le déployer en PROD · L’asset model du Data Product · Les rôles et permissions (globale, ressources, …) · Les fonctionnalités de migration import/export (par ex. pour les vues) · Le paramétrage des vues de diagramme · Savoir lancer et interpréter les résultats des connecteurs EDGE (technologies Datalake Azure/AWS, Databricks unity) et technical lineage (Databricks, Power BI) · Savoir manipuler les assets en masse (modification d’attributs, déplacements, suppressions), si besoin par import/export · Connaitre les fonctionnalités liées à Edge pour le sampling, profiling, data notebook · Scripting / APIs / Workflow · Trouver et savoir tester les APIs Collibra du portail développeur · Savoir comprendre et modifier un workflow existant (script : Groovy), le rendre paramétrable, le versionner si besoin et déployer DEV/PROD · Scripter des validations rules sur les assets Livrables attendus · Expressions de besoins et documents de cadrage · Workflows Collibra configurés · Catalogues de données alimentés · Lineage modélisé et documenté · Toute l’implémentation est en langue EN, éventuelle doc. technique succincte à réaliser sur les actions menées Compétences recherchées : Obligatoires : Maîtrise avancée de Collibra (Catalog, Lineage, Workflows) Solide expérience en Data Gouvernance et Data Management Bonnes connaissances des environnements Azure/ AWS / Databricks / Power BI /API/ BDD Expérience nécessaire : 5 années minimum Langues : Anglais et français
Freelance

Mission freelance
Analytics Engineer – Data & BI

SKILLWISE
Publiée le
Azure Data Factory
Azure DevOps
Databricks

3 mois
100-600 €
Paris, France
Nous recherchons un Analytics Engineer pour rejoindre une équipe dédiée à la centralisation et à la fiabilisation des données dans un environnement data-driven. Votre mission consistera à concevoir et maintenir des pipelines de données (Azure Data Factory, Databricks, Spark SQL) pour alimenter un datamart utilisé par les métiers via des outils self-BI (Power BI, BusinessObjects). Vos missions principales : Concevoir et développer des pipelines d’ingestion via Azure Data Factory , en assurant leur robustesse et leur évolutivité. Transformer et optimiser les données en utilisant Spark SQL (Databricks) pour répondre aux besoins métiers. Maintenir et améliorer les indicateurs de qualité des données , en garantissant leur cohérence et leur fiabilité. Implémenter des tests unitaires pour sécuriser les pipelines et assurer la stabilité des solutions. Collaborer avec les équipes techniques et métiers pour affiner les besoins et proposer des améliorations continues. Participer à la maintenance des outils de monitoring pour suivre les performances et la santé des applications. Ce poste est idéal pour un professionnel souhaitant impacter directement la stratégie data d’une organisation en pleine transformation digitale.
Freelance

Mission freelance
Business Analyst Data & Paiements | SQL Expert | Power BI | Agile

CAT-AMANIA
Publiée le
Azure
Confluence
Google Cloud Platform (GCP)

6 mois
470-530 €
Île-de-France, France
Nous recherchons un Business Analyst Data pour rejoindre une Squad Data au sein d'un grand groupe financier de premier plan. Votre mission principale sera de piloter la chaîne de valeur de la donnée de paiement, de la collecte à la restitution décisionnelle. Vos missions : Recueillir et analyser les besoins des équipes métiers et des autres squads data. Traduire ces besoins en spécifications fonctionnelles et techniques détaillées (User Stories) dans un environnement Agile. Assurer la qualité et l'intégrité des flux de données de paiement via des requêtes SQL avancées. Concevoir, générer et diffuser des reportings et tableaux de bord via Power BI pour le pilotage des activités. Réaliser les tests de recette des traitements d'intégration et de transformation de données. Accompagner et former les utilisateurs finaux dans l'exploitation de leurs données de paiement. Profil recherché : Expertise confirmée en SQL (indispensable pour l'exploration et la validation de données). Solide connaissance du domaine des Moyens de Paiement ou de la Monétique. Maîtrise des outils de Data Viz (Power BI) et de la rédaction de documentation projet (Jira, Confluence). Expérience en environnement Big Data ou Cloud (Azure, GCP). Capacité à travailler en méthodologie Agile (Scrum). Excellente communication et capacité à vulgariser des sujets techniques complexes.
Freelance

Mission freelance
POT8952 - Un Data Scientist Sénior sur Massy

Almatek
Publiée le
SQL

6 mois
100-390 €
Massy, Île-de-France
Almatek recherche pour l'un de ses clients,Un Data Scientist Sénior sur Massy. DESCRIPTION DE LA MISSION. Au sein du pôle Data Science Customer, vous rejoignez une feature team dédiée à l'un des piliers stratégiques de l’entreprise :le moteur de recherche de produit. Votre mission est de transformer l'intention d'achat de millions de clients en une expérience fluide, pertinente et performante. Vous serez le référent technique sur l'évolution de notre moteur de recherche, en passant d'une approche textuelle classique à une expérience de recherche sémantique et personnalisée. ENVIRONNEMENT TECHNIQUE ET EXPERTISES NÉCESSAIRES. - En intervenant à toutes les étapes des projets, vous pourrez : - Stratégie Search : Collaborer avec les Product Managers pour définir la roadmap de pertinence (recherche textuelle, sémantique, hybride). - Architecture Vectorielle : Concevoir et déployer des solutions de Vector Search (Embeddings, ANN) pour capturer l'intention client au-delà des mots-clés. - Optimisation du Ranking : Implémenter et itérer sur des modèles de Learning to Rank (LTR) et de Reranking pour arbitrer entre pertinence métier, mix marge et préférences utilisateur. -Évaluation de la pertinence : Mettre en place des protocoles d'A/B testing rigoureux et des frameworks d'évaluation (nDCG, MRR, Click-through rate). -Expertise Elasticsearch : Optimiser les configurations, les analyseurs et les requêtes complexes pour garantir des performances temps réel à grande échelle. -Mentorat : Guider et élever le niveau technique des data scientists juniors sur les thématiques de NLP et de Search.? Compétences techniques clés : - Moteurs de recherche : Maîtrise avancée d'Elasticsearch, incluant le tuning de pertinence et la gestion des index. - Recherche Vectorielle : Expérience concrète dans l'utilisation de bases de données vectorielles et de modèles d'embedding. - Reranking : Solide expérience dans la conception de modèles de reranking (XGBoost/LightGBM pour le LTR, ou approches Deep Learning). - Stack Data : Maîtrise de Python, SQL et de l'écosystème GCP (BigQuery, Vertex AI). - Les petits plus - Expérience sur des problématiques de Personalized Search (intégration des signaux utilisateurs temps réel). - Contributions à des projets Open Source dans le domaine du Search ou du NLP. - Connaissance des problématiques de recherche multilingue ou de traitement des synonymes par IA. - Notre environnement technique - Python, SQL, Terraform, Docker, Gitlab, Jenkins, GCP (Cloud Composer / Airflow, Cloudrun, BigQuery, Cloud Batch, Kubernetes Engine, Vertex AI, Cloud Storage) Votre séniorité vous permet de naviguer entre la rigueur scientifique et les impératifs business du e-commerce. Vous savez vulgariser des concepts de "Neural Search" auprès d'interlocuteurs non-techniques tout en garantissant une qualité de code (Clean Code, CI/CD) irréprochable.
Freelance

Mission freelance
Data Engineer / Développeur Python Cloud

Intuition IT Solutions Ltd.
Publiée le
Python

6 mois
Toulouse, Occitanie
Mission Assurer le maintien en conditions opérationnelles des applications existantes, qu’il s’agisse de prototypes ou de solutions déjà déployées en production, en garantissant leur stabilité, performance et disponibilité. Concevoir, développer et faire évoluer des solutions de traitement de données couvrant l’ensemble de la chaîne : collecte, transformation, stockage, agrégation et restitution. Participer à la définition des besoins techniques, à la rédaction des spécifications et à la conception des architectures applicatives et data. Développer et maintenir des services, APIs et outils internes en Python, dans un environnement cloud AWS industrialisé. Mettre en place, optimiser et superviser des pipelines data fiables et robustes, en veillant à la qualité, l’intégrité et la traçabilité des données. Intervenir en support technique avancé pour analyser, diagnostiquer et résoudre les incidents ou anomalies applicatives et data. Accompagner les équipes lors des déploiements et assurer l’assistance aux utilisateurs internes. Rédiger et maintenir la documentation technique (spécifications, procédures, scripts, guides d’exploitation). Participer aux rituels Agile, au suivi des tickets, au reporting d’avancement et à l’amélioration continue des processus et outils. Garantir le respect des standards techniques, de sécurité, de qualité et de conformité propres à l’environnement industriel du client.
Alternance
Freelance

Mission freelance
Membre de jury d’examen Data Scientist – Évaluation asynchrone (Freelance)

█ █ █ █ █ █ █
Publiée le

Douvaine, Auvergne-Rhône-Alpes

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Alternance

Offre d'alternance
Alternance - Data Engineer H/F/X

█ █ █ █ █ █ █
Publiée le
Apache Spark
BigQuery
CI/CD

Saint-Denis, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
EXPERT DATA BI SSIS SQL SERVER AZURE DEVOPS

PROPULSE IT
Publiée le
Azure
BI
DevOps

24 mois
325-650 €
La Défense, Île-de-France
Pour l'un de nos client basé à La Defense, nous recherchons un expert Microsoft BI très orienté Data sur l'ETL SSIS et T/SQL pour une mission très orientée optimisation et Run avec cependant quelques projets en parallèle : Consultant MOE BI / Domaine Socle Data / Domaine : Etudes et Intégration / Ingénierie d'Etude / Conception ▪ Descriptif détaillé de la mission : ➢ Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) ➢ Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. ➢ Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. ➢ Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. ➢ Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). ➢ Conseiller, proposer des axes d'amélioration, alerter si besoin. ▪ Environnement technique de la mission : ➢ Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) ➢ Reporting : COGNOS BI 10.2 et 11 & Tableau
Freelance

Mission freelance
Data Engineer - Vannes

VISIAN
Publiée le
Apache Kafka
Apache Spark
Scala

3 ans
450-500 €
Vannes, Bretagne
Localisation : Bretagne Présence sur site minimum 3 jours par semaine Candidatures locales privilégiées Contexte Au sein d’un Chapitre Data intervenant en transverse dans l’entreprise, vous contribuez à la fabrication des cas d’usage Data portés par différentes Squads métiers. Vous évoluez dans un environnement collaboratif avec des interlocuteurs variés et participez activement aux échanges avec les membres du Chapitre présents sur d’autres sites en France. Missions Participer à la définition de l’architecture Data avec les architectes et les Squads Concevoir et développer des solutions de collecte, transformation et stockage de données issues de multiples sources Développer des pipelines Spark batch et Spark Streaming Mettre en place les tests unitaires et automatisés Déployer les solutions dans les différents environnements Assurer le suivi en production et la gestion des incidents Être force de proposition et contribuer à l’amélioration continue Environnement technique Spark (batch et streaming) indispensable SQL indispensable Scala apprécié Kafka apprécié Java et Shell appréciés Stack Hadoop Cloudera HDFS, Hive, HBase, Phoenix, MongoDB Git, Jenkins, Artifactory, XL Release ELK, Grafana Méthodologie Scrum Connaissances appréciées Outils de data visualisation tels que MicroStrategy, Power BI ou Tableau Profil recherché Expérience confirmée en Data Engineering Big Data Solide maîtrise de Spark dans un environnement Hadoop / Cloudera Capacité à évoluer en contexte transverse Soft skills attendues Autonomie Adaptabilité Bonne communication Capacité à challenger les besoins Prise de lead et force de proposition
Freelance

Mission freelance
Data Analyst Huwise H/F

OUICODING
Publiée le

1 mois
420-580 €
Paris, Île-de-France
Mission : Assurer l'administration, l'alimentation, les évolutions et le run des chaînes de publication (open/partagé), en garantissant qualité, traçabilité et conformité, et en maintenant les visualisations associées. Responsabilités principales : -Recueil & analyse : cadrage des besoins de publication, compréhension des indicateurs et règles de gestion, formalisation des transformations. -Préparation des données : requêtage, transformations, contrôles qualité, automatisation des traitements (SQL/Python). -Publication : mise à jour des jeux de données sur la plateforme de diffusion, gestion des métadonnées, cycles de publication. -Dataviz : maintenance et évolution des visualisations (tableaux de bord, cartes/indicateurs selon le périmètre). -Run & incidents : diagnostic des anomalies, correction, amélioration des chaînes, documentation et tests. -Dev collaboratif : Git, revues, CI/CD, livraison en environnements dev/préprod/prod. Stack / environnement (indicatif) : SQL, Python, Snowflake (ou équivalent DWH), outils de publication Open Data (type OpenDataSoft ou équivalent), Git/GitLab, CI/CD (Azure DevOps ou équivalent), Power BI (selon périmètre).
Freelance

Mission freelance
recherche profil CP/Data analyste BI - Ecommerce

Mon Consultant Indépendant
Publiée le
Data analysis

3 mois
500-550 €
Lyon, Auvergne-Rhône-Alpes
Je suis à la recherche de ce profil pour l'un de nos clients en région lyonnaise : Je suis en recherche d’une prestation sur un profil confirmé de Chef de projet/Business Analyst Data BI . Pour rappel, notre équipe Data Consumer Solutions travaille principalement sur des sujets marketing/CRM/e-commerce/services liés à nos données Consommateurs (collectés à travers des touchpoints digitaux : Apps, Site Webs, Produits connectés, Advertising platforms…). Pour cet appel à compétence nous recherchons un profil connaissant le e-commerce. Ce profil rejoindrait une équipe projet mixte composée d'experts data IT et des équipes e-commerce (D2C) collaborant sur la collecte et l’exploitation de données de nos sites web : Ventes & Tracking Analytics Il aurait un focus fort sur la partie collecte de données depuis des sources tierces. Les tâches principales seront : · Analyser les besoins exprimés par le Business Owner pour identifier les champs (API/Autres sources) à récupérer pour y répondre et proposer des solutions en collaboration avec nos experts Data. · Coordonner les tâches de setup d’outil de collecte et de build de nos Data Engineers / Experts Dataviz pour récupérer la donnée dans notre Datalake, la préparer et la transformer afin d’alimenter nos Dashboards Qlik ou des Datasets mis à disposition de Data Analysts. · Faire des analyses/requêtes Data pour tester et valider les solutions mises en place, ou répondre à des questions métiers. · Rédiger la documentation technico-fonctionnelle au fil de l'avancement du projet pour en assurer la continuité et l'évolutivité · Former et accompagner les key users sur les applications. Les compétences clés recherchées sont : · Business Analyse (expertise fonctionnelle) · Gestion de projet en environnement agile · Expérience en projets Data/BI sur des périmètres liés au e-commerce/D2C (ce critère sera clé pour notre choix, afin de permettre une montée en puissance rapide sur ce périmètre métier) · Anglais car les solutions sont déployées à l’international et les sources de données sont worldwide La mission serait de plusieurs mois (avec une fin liée à un retour de congé maternité) et en temps plein, avec chaque semaine 2 jours home office et 3 jours dans nos locaux (accessible en TCL). Notre objectif est d’avoir sélectionné et positionné une personne sur ce poste dès que possible en mars.
1736 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous