Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 1 023 résultats.
CDI

Offre d'emploi
Consultant DataOps / Administrateur Hadoop

Craftman data
Publiée le
Ansible
CI/CD
Docker

La Défense, Île-de-France
Dans le cadre de ses projets Big Data internes, notre client recherche un Consultant DataOps & Administrateur Hadoop confirmé , intégré à l’équipe BDP (Big Data Platform) . Le consultant interviendra sur le déploiement, l’industrialisation, l’exploitation et le maintien en condition opérationnelle de clusters Big Data personnalisés, basés sur la TOSIT Data Platform (TDP) , au service des projets data et métiers. 🎯 Rôle et responsabilités 1. Déploiement & industrialisation des clusters Big Data Déploiement automatisé de clusters via pipelines Jenkins Installation et configuration des composants Hadoop via Ansible Adaptation des architectures selon les besoins projets (sécurité, performance, capacité) Contribution aux pratiques CI/CD et Infrastructure as Code Déploiement et administration du TDP Manager Mise en place de Hue pour les environnements Datalab 2 . Administration avancée de la stack Hadoop / TDP Le consultant est responsable de l’installation, la configuration et l’exploitation de : Sécurité & identités : OpenLDAP Kerberos Ranger (politiques de sécurité) Stockage & calcul distribué : HDFS (baie Huawei) Hadoop (YARN, services core) Traitement & accès aux données : Spark Hive Services transverses : ZooKeeper PostgreSQL Responsabilités associées : Gestion des dépendances inter-services Cohérence des versions Optimisation des performances et de la stabilité Résolution des incidents complexes 3. Provisionnement & automatisation des environnements Provisionnement de VM sous VMware Préparation des prérequis systèmes (OS, réseau, stockage) Automatisation via Ansible et scripts Bash Gestion des environnements DEV / RECETTE / PROD 4. Observabilité, supervision & anticipation Mise en œuvre et maintien de la stack d’observabilité : Prometheus Alertmanager Loki / Promtail Grafana Définition des indicateurs de supervision Analyse proactive des alertes Diagnostic et résolution d’incidents 5. Maintien en Condition Opérationnelle (MCO) Administration quotidienne des clusters Hadoop Support aux équipes projets et utilisateurs Datalab Gestion des incidents, demandes d’évolution et correctifs Montées de version Suivi de capacité (CPU, RAM, stockage) Rédaction et mise à jour de la documentation technique 🤝 Interaction & posture attendue Participation active aux rituels d’équipe Coordination avec : Équipes infrastructure Équipes projets data / métiers Référents sécurité Capacité à accompagner et conseiller les équipes dans l’usage de la plateforme Forte capacité de communication transverse 🧠 Compétences clés attendues Techniques Expertise Hadoop / Big Data on-prem Solide expérience DataOps / DevOps Maîtrise de : Jenkins, GitLab CI/CD, SonarQube Ansible, Bash VMware, Docker Stack d’observabilité (Prometheus, Grafana, Loki) Méthodologiques & soft skills : Rigueur et sens de la qualité Forte sensibilité aux enjeux de sécurité Capacité d’anticipation (supervision, performance, capacité) Autonomie et esprit d’équipe Aisance dans des environnements complexes et critiques ⚠️ Points de vigilance Forte interdépendance des composants Hadoop Exigences élevées en matière de sécurité (Kerberos, Ranger) Enjeux de performance et de disponibilité Nécessité d’une coordination transverse permanente
Freelance
CDI

Offre d'emploi
SDM ITSM

Atlanse
Publiée le
CMDB
ITSM
Master Data Management (MDM)

1 an
50k-60k €
400-450 €
Courbevoie, Île-de-France
En tant que SDM, vous intervenez dans un environnement de services managés, avec des enjeux de qualité de service, de pilotage des engagements, de coordination des infogérants et de suivi de la performance sur des périmètres à forte visibilité. Missions Pilotage de la qualité de service et de la relation client · Piloter l'activité des infogérants en s’appuyant sur une bonne compréhension technique du périmètre · Définir le contenu des services et leurs modalités de mise en œuvre · Formaliser et suivre les engagements de service à travers les SLA et SLR · Assurer le reporting client · Veiller à la prise en compte des évènements pouvant impacter le contrat de services tout au long de son cycle de vie Suivi de la performance et amélioration continue · Analyser les résultats des indicateurs et en évaluer les écarts · Proposer des plans d'actions · S'assurer de l'impact de tout changement sur les niveaux de service et les accords opérationnels (interne et sous-traitance) Gestion contractuelle, budgétaire et fournisseurs · Participer et s'engager dans l'élaboration du contrat de services · Suivre le budget associé au contrat de services · Piloter la contractualisation des contrats de sous-traitance · Veiller à la cohérence entre les engagements contractuels, la qualité de service délivrée et les moyens mis en œuvre
Freelance

Mission freelance
Data Product Manager / Data & BI (Senior)

Inventiv IT
Publiée le
Data analysis
Data modelling
ERP

6 mois
600-750 €
Île-de-France, France
Piloter les études et cadrages des initiatives Data & BI . Recueillir et analyser les besoins métiers et comprendre les enjeux business. Organiser et animer des workshops avec les parties prenantes pour collecter les exigences fonctionnelles. Définir et documenter l’ architecture fonctionnelle des solutions data . Réaliser la modélisation des données et concevoir les couches métiers (Business Layer / Silver Layer). Assurer la cohérence du cycle de vie de la donnée : de la source jusqu’à la visualisation. Coordonner les contributions des Data Architects, Data Engineers et équipes BI . Documenter la valeur métier des solutions data proposées. Préparer le budget (build/run) et le planning projet . Formaliser les propositions de lancement de projets data . Anglais courants . Environnement technique BI / Data Visualization : Power BI, Microstrategy Data Platform / Data Warehouse : Azure, Snowflake Data : SQL, Data Modeling, Data Analysis ERP / Data Sources : SAP Architecture Data & Data Lifecycle
Freelance

Mission freelance
Développeur BOARD (H/F)

Nicholson SAS
Publiée le
Azure
Board
Data Lake

1 an
350 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Nous recherchons un Développeur BOARD pour intégrer des projets Data d'envergure. Vous interviendrez de la conception jusqu'au déploiement en production, tout en assurant un support de niveau 3. 📍 Modalités Lieu : Clermont-Ferrand (Hybride : 3 jours/semaine sur site) Date de début : 04/05/2026 Durée : Jusqu'au 03/05/2027 (renouvelable) Budget TJM : 350 € 🎯 Missions principales Conception et configuration d'applications via la solution BOARD. Accompagnement du cycle de vie : du développement jusqu'à la mise en production. Support L3 : support aux tests d’acceptation utilisateurs (UAT) et résolution d'incidents complexes. Communication : vulgarisation de concepts techniques auprès des métiers. 🛠 Compétences techniques Incontournables (Mandatory) : BOARD (Expertise outil) Ecosystème Data : Databricks, Azure Data Lake, Power BI Fondamentaux : Concepts BI, analyse de données. Langues : Anglais opérationnel. Souhaitées (Nice to have) : Méthodologie AGILE. Appétence pour l'analyse fonctionnelle (Business Analysis).
Freelance

Mission freelance
Ingénieur Data Oracle/SQL/Python

CS Group Solutions
Publiée le
Apache Airflow
Oracle
Python

12 mois
380-400 €
Lyon, Auvergne-Rhône-Alpes
Nous recherchons un Ingénieur Data Oracle/SQL/Python Objectif global : Développement Data Engineer Oracle/SQL/Python Contrainte du projet: Contexte Data Les livrables sont: Développement des nouvelles fonctionnalités TU / Spécifications techniques MCO/RUN Compétences techniques: Oracle - Confirmé - Impératif SQL - Confirmé - Impératif Python - Junior - Important Airflow - Junior - Souhaitable Description détaillée: Nous cherchons un data ingénieur ASAP pour une mission longue durée Compétences : ORACLE impératif SQL impératif Python Expérience : Participation à des projets liés à la Data et aux Bases de données (injection et exposition des données) Bonne compréhension fonctionnelle Utilisation de GIT pour la gestion de version Niveau recherché : Confirmé (surtout Oracle et SQL, ok pour junior/intermédiaire sur Python) Compétences appréciées (Bonus) : Airflow Apache (ordonnanceur de traitements de données en Python) Trino (exposition des données depuis sources multiples en SQL) Méthodologie Agile SAFE & Scrum Outils de gestion de projet : Jira, Confluence Profil orienté Data Ingénieur On ne recherche pas de profil devsecOps, ni de data architecte Activités : Build 80% & MCO/RUN 20% Conditions de travail : Présentiel souhaité : 2 jours par semaine chez le client
Freelance

Mission freelance
Data Manager

RED Commerce - The Global SAP Solutions Provider
Publiée le
Data management

6 mois
Lyon, Auvergne-Rhône-Alpes
*** Data Manager – Hybride – Lyon *** RED Global est à la recherche d’un Data Manager pour venir rejoindre les équipes de l’un de nos clients dans le cadre de leurs projets en cours. Profil recherché: 8-10 ans d’expérience en tant que Responsable Data/ Data Manager Capacité à manager des équipes et différentes plateformes. Management Opérationnel Excellentes compétences de communication Détails de la mission: Démarrage : ASAP Localisation : Hybride – Lyon – 2/3 jours sur site par semaine Durée : contrat de 6 mois puis passage en CDI Langues : Français et Anglais obligatoire
Freelance
CDI

Offre d'emploi
Consultant Privacy & protection des données - Environnement IT - TOULOUSE

Ewolve
Publiée le
Data privacy
DORA
IA

2 ans
40k-45k €
400-500 €
Toulouse, Occitanie
Au sein d’un acteur majeur du secteur bancaire, vous intervenez dans un environnement SI complexe, multi-plateformes et à forts enjeux réglementaires. Intégré(e) à une équipe Privacy en lien étroit avec les équipes IT, Sécurité et Métiers, vous accompagnez les projets digitaux, data et IA sur l’ensemble du périmètre Banque & Assurance. Poste basé à Toulouse, 50% de télétravail. Vos missions - Privacy by Design & Accompagnement projets IT Intervenir dès les phases de cadrage projet pour identifier les traitements de données personnelles Analyser les flux de données et architectures applicatives Identifier les données à caractère personnel et qualifier les risques associés Définir et formaliser les exigences RGPD en lien avec les architectes, RSSI et équipes sécurité Participer à la recette des exigences (durées de conservation, habilitations, traçabilité, purges…) Documenter les livrables RGPD selon les standards internes et référentiels CNIL - Analyses d’impact & gestion des risques Rédiger et piloter les AIPD / PIA en coordination avec les Métiers, DPO et filières juridiques Évaluer les risques en matière de protection des données Proposer des plans de remédiation opérationnels Assurer le support en cas de violations de données et demandes d’autorités - Projets Data & Intelligence Artificielle Accompagner les projets intégrant des solutions d’IA (chatbots, scoring, outils d’aide à la décision…) Contribuer à l’analyse des risques au regard du RGPD et du futur cadre IA (IA Act) Participer à la qualification des systèmes à risque Contribuer à la mise en place de dispositifs de transparence et de gouvernance des modèles - Cookies & outils digitaux Analyser les dispositifs de traceurs (tags, scripts tiers, outils de consentement) Vérifier la conformité des implémentations techniques Accompagner les équipes digitales dans le paramétrage et la gouvernance des outils - Veille & sensibilisation Assurer une veille active sur les évolutions réglementaires (RGPD, IA Act, DORA, eIDAS v2…) Contribuer à la diffusion des bonnes pratiques en matière de protection des données Participer à la montée en compétence des équipes projets et métiers
CDI

Offre d'emploi
Data Engineer Databricks - Lyon

KOMEET TECHNOLOGIES
Publiée le
Apache Spark
Databricks

45k-55k €
Lyon, Auvergne-Rhône-Alpes
En tant que Data Engineer, vous intervenez sur la conception, le développement et l’optimisation de pipelines de données robustes et scalables. Vous travaillez au cœur des plateformes Data afin de garantir la qualité, la disponibilité et la performance des données utilisées par les équipes métiers, BI et Data Science. Expérience attendue : 3 à 8+ ans en ingénierie Data. Vous correspondez au/à la Data Engineer que nous recherchons si : Vous évoluez efficacement au sein d’équipes agiles et pluridisciplinaires , en collaboration étroite avec les équipes Data, IT et métiers Vous faites preuve d’un fort esprit analytique et d’une grande rigueur Vous êtes autonome , proactif et doté d’un solide sens des responsabilités Vous êtes capable de communiquer clairement avec des interlocuteurs techniques comme non techniques Vous savez prioriser vos tâches , gérer les contraintes et respecter vos engagements Vous disposez d’un bon esprit de synthèse et êtes orienté résultats et valeur métier Vous avez une bonne connaissance des environnements Business Intelligence , Big Data et des architectures Lakehouse Vous avez déjà travaillé sur des plateformes Data modernes (Cloud) Vous maîtrisez SQL comme langage d’interrogation des données et avez des notions de modélisation de données (architecture médaillon, modèle en étoile …) Vous disposez d’un bagage en software engineering , vous permettant d’écrire un code robuste, lisible, maintenable et testable, notamment en Python Vous appliquez les bonnes pratiques de développement : structuration du code, modularité, gestion des dépendances, conventions de nommage Vous êtes sensibilisé aux principes de qualité logicielle (tests unitaires, tests d’intégration, revue de code) Vous êtes à l’aise avec les outils de versioning ( Git ) et les workflows collaboratifs associés Vous savez concevoir des pipelines Data comme de véritables produits logiciels, en tenant compte de la maintenabilité, de l’évolutivité et de l’observabilité
Freelance

Mission freelance
101456/gestion de projets MOE Data NIORT ETL/EL, SQL. DATA, IA, RPA, Data Science.

WorldWide People
Publiée le
ETL (Extract-transform-load)

8 mois
400-470 €
Niort, Nouvelle-Aquitaine
gestion de projets MOE Data NIORT ETL/EL, SQL. DATA, IA, RPA, Data Science. Compétences : : - Appétence pour les sujets techniques : DATA, IA, RPA, Data Science. - Maîtrise des outils de type ETL/ELT pour la préparation et l'industrialisation des flux (souhaitée). - Expertise en langage SQL (par exemple, Dataiku). - Capacité à challenger une équipe, ses solutions, aider à chiffrer les coûts de réalisation et mener à bien les phases de qualification avec les clients. - Connaissances en intégration et optimisation des données pour Tableau (ou équivalent). - Expertise en modélisation de données (MCD, dimensionnel) et capacité à les mettre en œuvre. - Expérience solide en conception et implémentation de processus ETL/ELT. - Expérience en BI/BO ou SAS serait un plus dans le cadre des migrations à réaliser. - Connaissances en assurance vie seraient appréciées. Conditions de travail : - Présence sur site à Niort à raison de 3 jours minimum par semaine, dès l'autonomie acquise. construire, maintenir et optimiser les plateformes et pipelines de données, garantissant ainsi la fiabilité et l'accessibilité des données pour l'ensemble de l'entreprise. Responsabilités : - Pilotage d'activité. - Management opérationnel d'une équipe composée de 2 pôles. - Accompagnement de l'équipe dans les conceptions. - Aide aux PO dans la relation avec les métiers. - Garantie des livrables avec les clients (entrants/sortants). - Animation d'ateliers métiers. - Participation à des task forces en cas d'incidents.
Freelance
CDI

Offre d'emploi
Delivery Manager Data

VISIAN
Publiée le
Architecture
Big Data
Databricks

1 an
Paris, France
Contexte de la mission Le programme vise à doter le reporting financier de capacités de pilotage et d'analyse de la marge, de prévisions financières, de gestion du budget et des opérations de clôture. La solution s'appuie sur une plateforme Data centralisée agrégeant les flux provenant des systèmes de facturation, de pricing et de sourcing d'énergie. Le programme est structuré autour de trois familles d'équipes : 3 équipes en charge de la visualisation des chiffres et de l'expérience utilisateurs Contrôle de Gestion 2 équipes Data en charge de l'ingestion, de la transformation et de la qualité des données Une équipe Plateforme assurant la maintenance du socle technique, l'orchestration des traitements et leur monitoring La solution est aujourd'hui incomplètement industrialisée et un plan d'action visant à finaliser la mise en place des flux, à sécuriser les données, à consolider l'approche transverse bout-en-bout du programme et à assister les équipes dans leurs pratiques agiles est en cours. Le Delivery Manager est le pilote de ce Plan d'action en étroite collaboration avec la Direction de Programme Métier et les Data Providers.
Freelance

Mission freelance
Proxy Product Owner

Codezys
Publiée le
API
Data management

12 mois
Lyon, Auvergne-Rhône-Alpes
Contexte : Vous intégrerez le département Architecture & Exploitation de la Direction des Systèmes d'Information dans le cadre du programme IAM , en particulier sur le projet IGA . Objectif du projet : Mettre en place une solution de Gestion des Identités et des Accès pour gagner en autonomie par rapport à la solution du groupe, réduire les délais d’accès aux applications, et fiabiliser le traitement pour minimiser les erreurs et écarts entre droits théoriques et réels. Structure du projet : Lot Solution : conception et déploiement de la solution IGA basée sur le produit OIM. Lot Raccordement : raccordement automatisé des applications jusqu’ici raccordées manuellement. Rôle et responsabilités : En tant que Proxy Product Owner pour le lot Raccordement, vous serez intégré(e) à l’équipe produit et aurez pour missions : Cadrer et concevoir les raccordements en : analysant les besoins d’habilitation des applications définissant les spécifications fonctionnelles d’intégration définissant les règles de mapping des données (identités, rôles, attributs) Piloter la réalisation des raccordements, en : collaborant avec les équipes produit, techniques et cybersécurité s’assurant de la bonne compréhension et utilisation des API et mécanismes d’intégration accompagnant dans la mise en œuvre des flux de provisioning Objectifs clés : Sécuriser le provisioning des habilitations Assurer la compréhension des mécanismes d’intégration Garantir la cohérence du mapping des données Maintenir la qualité fonctionnelle des intégrations Responsabilités principales : Analyser et définir les besoins pour les connecteurs applicatifs, incluant flux d’intégration et règles de provisioning Piloter le raccordement des applications, de la phase de cadrage à la mise en production Valider le mapping des données entre le produit et les applications Coordonner les équipes impliquées et animer les ateliers, comités et points de suivi Anticiper et gérer les risques et dépendances Suivre et reporter l’avancement, tenir à jour les outils de pilotage Veiller à la conformité des intégrations avec les standards IAM et processus internes Participer au fonctionnement Agile de l’équipe (backlog, priorisation, rituels)
Freelance

Mission freelance
Expert Data Gouvernance (H/F) – Secteur Bancaire

CELAD
Publiée le

1 an
Paris, France
Contexte Dans le cadre d’une mission pour l’un de nos clients, acteur majeur du secteur bancaire, nous recherchons un Expert Data Gouvernance afin d’accompagner la structuration et l’optimisation de la gestion des données. Vous interviendrez dans un environnement exigeant, au cœur des enjeux stratégiques liés à la qualité, la sécurité et la valorisation des données. Vos missions Définir et déployer la stratégie de gouvernance des données Mettre en place les politiques, standards et processus de gestion des données Assurer la qualité, la fiabilité et la traçabilité des données (data quality, data lineage) Piloter les dispositifs de conformité (notamment réglementaires) Collaborer avec les équipes métiers, IT et data (Data Engineers, Data Analysts, etc.) Mettre en place et animer les comités de gouvernance Définir les rôles et responsabilités (Data Owner, Data Steward…) Accompagner la conduite du changement et la sensibilisation des équipes Suivre les indicateurs de performance liés à la data gouvernance
Alternance
CDI

Offre d'emploi
Alternance - Data analyst & Relations Sociales F/H - Système, réseaux, données (H/F)

█ █ █ █ █ █ █
Publiée le
Microsoft Excel

Magny-Vernois, Bourgogne-Franche-Comté

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Data Scientist Gen.AI (h/f)

emagine Consulting SARL
Publiée le

1 mois
111 €
France
Nous recherchons un Data Scientist Gen AI pour contribuer au développement de solutions innovantes basées sur l'IA générative. Le candidat idéal doit posséder une expertise en IA générative et en machine learning, ainsi qu'une aptitude avérée à créer des applications conversationnelles efficaces dans un cadre international. Missions principales : Concevoir et développer des solutions conversationnelles basées sur des modèles d’IA générative. Participer à l’architecture technique et au choix des frameworks tels que les LLMs, orchestration, RAG et fine-tuning. Implémenter des systèmes agentiques lorsque pertinent, y compris des multi-agents, l’utilisation d'outils et des chaînes de raisonnement. Mettre en place des pipelines robustes pour la collecte de données, la vectorisation, le monitoring et l’évaluation. Optimiser la performance, la fiabilité et la sécurité des réponses générées par les systèmes. Collaborer activement avec les équipes interfonctionnelles pour atteindre les objectifs de projet. Profil recherché : Anglais opérationnel pour un contexte international. Expérience confirmée en IA générative. Compétences confirmées en machine learning. Expérience sur le développement de solutions conversationnelles. Gros plus: connaitre le cloud AWS
CDI

Offre d'emploi
Data Scientist H/F

FED SAS
Publiée le

42k-52k €
Apprieu, Auvergne-Rhône-Alpes
Fed IT, cabinet de recrutement dédié aux fonctions informatiques, recrute pour son client, cabinet de maîtrise d'œuvre et économie de la construction, un(e) Data Scientist H/F, pour accompagner sa croissance. Au sein d'une société de 60 personnes, vous arrivez en création de poste et rejoignez la "transformation digitale" (data et infrastructure). Rattaché(e) au directeur de l'équipe, vous : -Intervenez sur l'ensemble de la data du cabinet (maquettes 3D, mémoires techniques, cycle de vie des produits...), -Structurez et exploitez les données issues des différents métiers de l'entreprise, -Recueillez les besoins des utilisateurs et les traduisez en spécifications techniques, -Réalisez les extractions, transformations et intégrations des données (SQL, et via des ETL et API), -Mettez à disposition les KPI et autres outils d'aide à la décision (Power BI), -Développez des outils complémentaires via Python, -Proposez des méthodes d'automatisation de mise à disposition, stockage et échange de données, -Êtes partie prenante dans le choix des outils data et maintenez l'existant, Rémunération : 42 à 50 K€ bruts/an (fixe selon expérience) + 1 à 3 K€/an (intéressement possible) + 100 € nets/mois (forfait restauration) + forfait annuel lié à la mobilité douce + 1 jour de télétravail/semaine + 6 jours de RTT/an.
Freelance

Mission freelance
Data Integration specialist

Axande
Publiée le
GSAP
TIBCO

12 mois
520-650 €
Paris, France
RÔLE PRINCIPAL Le spécialiste en intégration de données interviendra spécifiquement sur un projet d’implémentation d’un système de gestion d’entrepôt (WMS – Manhattan en mode SaaS) au sein de l’écosystème client. Il rejoindra une équipe de 4 personnes et devra développer une expertise sur les interfaces existantes entre SAP ECC et les systèmes Manhattan, ainsi qu’entre SAP S/4 et Manhattan. Ces interfaces assurent des échanges bidirectionnels de données Supply (données de référence / commandes / livraisons, etc.) et utilisent différents formats (IDOC sur ECC – API OData / événements sur S/4 – fichiers JSON côté Manhattan). Le candidat devra donc être capable d’évoluer dans un environnement complexe, de comprendre la logique d’interfaces élaborées jusqu’au niveau du mapping de données, et d’assurer leur maintenance. Il pourra également être amené à configurer de manière autonome des flux de données au sein de l’ESB, ainsi qu’à former et accompagner les équipes de production. Le candidat devra aussi être en mesure de contribuer aux projets de migration dans le cadre du passage de SAP ECC vers SAP S/4, qui impacte directement le projet. Il devra faire preuve de rigueur et de précision dans la gestion documentaire, notamment pour le suivi des versions des développements mis en production (gestion de 3 environnements/zones). Le candidat sera responsable du suivi des activités avec les partenaires AMER et APAC (réunions hebdomadaires), de la remontée des points critiques, ainsi que de la mise en place et du suivi des plans d’action. Un intérêt pour la coordination et la gestion de projet est donc requis. Un esprit d’équipe et une volonté de partager les connaissances sont essentiels. Le candidat doit être capable de respecter des délais serrés, et un bon niveau d’anglais est indispensable, le projet étant mondial. Principaux enjeux du poste Recueillir et analyser les besoins métiers et clients afin de proposer des solutions techniques d’intégration Apporter de la valeur au métier en concevant le modèle d’intégration le plus adapté aux besoins Identifier et prioriser les opportunités d’amélioration des processus et de l’efficacité opérationnelle

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

1023 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu
1

France

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous