Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 677 résultats.
CDI
Freelance

Offre d'emploi
Business analyst / Data scientist IA gen (RAG)

PARTENOR
Publiée le
Data science
RAG
Rédaction des spécifications fonctionnelles

1 an
Paris, France
Dans le cadre d'une création de poste chez l'un de nos clients grands comptes dans le secteur bancaire, nous recherchons un(e) business analyst confirmé avec une expérience en tant que data scientist sur des systèmes RAG. Vous travaillerez sur des sujets d'IA et d'IA générative et notamment au développement et déploiement d'une plateforme de recherche documentaire augmentée par l'IA générative RAG (Retrieval Augmented Generation). Vos missions principales : - Analyser et formaliser les besoins métiers liés à la RAG, en étroite collaboration avec les data scientists - Collaborer étroitement avec les développeurs et le product owner pour assurer la bonne compréhension des besoins et la qualité des solutions déployées - Assurer le suivi des performances des outils déployés et proposer des axes d'amélioration - Gérer de multiples projets métiers en parallèle qui utiliseront la plateforme - Accompagner technologiquement et animer les métiers dans le déploiement de la solution au sein de leurs projets - Suivre la production afin de garantir la satisfaction du client
CDI

Offre d'emploi
Intégrateur Production Data (Talend / PL-SQL) H/F

TechOps SAS
Publiée le
PL/SQL
SQL
Talend

40k-45k €
Paris, France
Nous recherchons un(e) Intégrateur Production Data pour rejoindre une équipe en charge de l’intégration et de l’interopérabilité des systèmes d’information. Vous serez responsable de la création, la maintenance et l’évolution des flux de données , afin de garantir la cohérence et la bonne circulation des informations entre différents systèmes. Vous participerez également à l’ optimisation et à l’automatisation des traitements , en collaborant avec les équipes IT pour assurer la qualité et la fiabilité des données.
Freelance
CDI

Offre d'emploi
Lead DevOps (CKAD)

Craftman data
Publiée le
Argo CD
Docker
FLUXCD

1 an
46k-60k €
500-700 €
Le Havre, Normandie
Rôle attendu Référent technique opérationnel de la squad DevOps, responsable de l’implémentation des pipelines CI/CD et de la démarche GitOps. Missions principales · Mise en œuvre et maintien des pipelines CI/CD · Déploiement d’une approche GitOps (ArgoCD / FluxCD) · Industrialisation des builds, tests, déploiements et rollbacks · Structuration des repositories GitOps · Supervision technique des ingénieurs DevOps Compétences requises · Jenkins, GitHub Actions, GitLab CI · ArgoCD, FluxCD · Docker (multi-stage builds) · Helm (charts, templating, hooks) · Vault, External Secrets · SonarQube, tests automatisés GitLab CI, Nexus, Root-Ceph
Freelance

Mission freelance
Lead QA H/F - Niort (79)

LeHibou
Publiée le
E-Invoicing
Facturation électronique
QA

6 mois
400-500 €
Niort, Nouvelle-Aquitaine
Notre client dans le secteur Assurance recherche un Lead QA H/F Descriptif de la mission: Description Stratégie & conformité QA : Traduire les spécifications AIFE et AFNOR en stratégie de tests opérationnelle. Définir, formaliser et maintenir la stratégie globale de tests (fonctionnels, conformité, non-régression, automatisation). Garantir la conformité du produit PDP aux exigences réglementaires en vigueur. Sécuriser les livraisons dans un contexte de contraintes fortes de planning. Pilotage & gouvernance : Être contributeur clé à la qualité produit ; les décisions de Go/No-Go sont partagées avec la Direction de programme et le Produit. Préparer et présenter les sujets qualité au comité de pilotage. Suivre les indicateurs qualité et l’avancement des campagnes de tests. Sécuriser l’exécution opérationnelle des tests. Encadrement & coordination : Encadrer une équipe de 5 QA. Organiser la répartition des activités de test et prioriser en fonction des contraintes projet. Travailler en étroite collaboration avec les équipes Produit et Développement. Interaction exclusivement interne (pas d’échange direct avec les clients). Opérationnel & outillage : Rédiger et maintenir les scénarios de test dans Squash. Participer directement aux campagnes de tests (tests fonctionnels et de conformité). Définir et suivre la stratégie d’automatisation des tests (mise en place progressive). Être capable de descendre dans l’opérationnel sans friction en cas de pic de charge ou d’urgence réglementaire. Environnement actuel sans CI/CD (sujet en pause, reprise prévue ultérieurement). Compétences / Qualités indispensables: Expérience confirmée en QA logicielle, avec un rôle de Lead QA ou équivalent., Solide compréhension des enjeux PDP / e-invoicing., Capacité à évoluer dans un environnement réglementaire complexe et sous pression., Connaître les outils utilisés dans le cadre de la QA (Squash, Postman, JIRA, Playwright…)., Connaître les moyens et les formats de communication du marché : échanges de flux structurés (XML/Json…), API (Rest/SOAP), SFTP et leur documentation associée (ex : Swagger, openAPI).
CDI
Freelance

Offre d'emploi
Responsable projets Data BI - CDI - Belgique - Bruxelles

PROPULSE IT
Publiée le
BI

24 mois
70k-77k €
385-770 €
Bruxelles, Bruxelles-Capitale, Belgique
Responsable Projet Data (H/F) - poste en CDI direct Liaisons fonctionnelles : À l'intérieur de l'entreprise : Le Directeur général et l'ensemble des salariés A l'extérieur : • Les squads Data, les squads en charge des données de référentiel, le service Etudes et Mesures • Les Direction Systèmes d'informations, les responsables des pays (Espagne / Pologne /Portugal / France / Slovénie / Luxembourg) • Prestataires : les intégrateurs, Ingénieur Data, Directeur de projet externe • Industriels (clients) Description générale du poste : Le Responsable projet Data (H/F) joue un rôle central dans la gestion des données, qui portent sur l'intégralité de la fiabilité des prestations vendues aux industriels. À ce titre, il doit définir et mettre en œuvre la stratégie globale de gestion des données disponibles, maintenir l'existant et identifier les opportunités, tout en s'inscrivant dans les modalités définies par le Mouvement. C'est un poste clé qui comporte les dimensions suivantes : - Techniques : manipulation de la donnée, utilisation approfondie des outils mis à disposition, - Stratégiques : enjeux, opportunité, sécurité, - Relationnelles : avec les pays, la DSI, une multitude d'acteurs variés - Une forte sensibilité sur la dimension gestion des systèmes d'informations est attendue Les missions principales : • assurer la qualité et la fiabilité des données en coordonnant avec des acteurs internes - externes • contrôler et mettre à jour les données référentiels spécifiques à notre client • construire, maintenir et faire évoluer les rapports mis à disposition • contrôler et valider la sécurité de l'accès aux données (rapports et données) • piloter la mise en qualité de l'ensemble des données, avec les pays • Participer au développement des services
Freelance

Mission freelance
Responsable Data Factory – Power BI, Azure Data Factory, Databricks & SAP BO

Comet
Publiée le
Azure Data Factory
Azure Synapse
Databricks

12 mois
560-750 €
Paris, France
Grand groupe français recherche un Manager de Transition Senior pour accompagner la direction Digital & Data dans le pilotage et la coordination de son portefeuille de projets Data . La mission s’inscrit dans un environnement de transformation numérique où les équipes Data portent des projets stratégiques pour les métiers du groupe. Le consultant interviendra au sein d’un pôle Data Factory composé d’ingénieurs Data , chargé de concevoir, déployer et maintenir les solutions Data et BI de l’entreprise. MissionsGouvernance et coordination Accompagner la direction Digital & Data dans le pilotage stratégique des projets Data Concevoir et préparer les dossiers d’investissement des projets Rédiger des cahiers des charges techniques Analyser les réponses aux consultations fournisseurs Piloter les prestataires externes Garantir la cohérence des roadmaps stratégiques et opérationnelles Préparer les éléments nécessaires aux instances de gouvernance Pilotage du portefeuille projets Participer à l’identification et à la priorisation des projets Data Mettre en place et maintenir les outils de pilotage du portefeuille Assurer le suivi : planning budget ressources risques Produire les tableaux de bord et reportings consolidés Assurer la coordination entre les équipes IT, métiers et partenaires externes Support opérationnel et managérial Accompagner les chefs de projets et les ingénieurs Data Contribuer à l’amélioration des processus internes Faciliter la circulation de l’information entre les parties prenantes Contribuer à la structuration et à la diffusion de la culture Data
CDI
Freelance

Offre d'emploi
Tech Lead Data (H/F)

AVA2I
Publiée le
Apache Airflow
AWS Cloud
Data Lake

3 ans
Île-de-France, France
Dans le cadre de l’évolution et de l’industrialisation de sa plateforme Data multi-cloud, un acteur majeur du secteur de l’énergie recherche un Tech Lead Data senior . La mission s’inscrit au sein de la plateforme Data Groupe avec des enjeux forts de : Scalabilité Gouvernance et qualité des données Industrialisation des pipelines Fiabilité en production 🎯 Missions principales 🔹 Leadership technique Être le référent technique de la plateforme Data Définir et faire évoluer l’architecture Data Encadrer et accompagner les Data Engineers Participer aux choix technologiques et aux orientations stratégiques 🔹 Build – Industrialisation Concevoir et mettre en œuvre un Data Lake Définir, développer et automatiser les pipelines de données Mettre en place les bonnes pratiques CI/CD Garantir la performance, la robustesse et la scalabilité 🔹 Run – MCO Assurer la supervision des traitements Gérer les incidents et optimiser les processus Maintenir les environnements techniques Automatiser les tâches récurrentes 🛠 Environnement technique☁ Cloud AWS (Redshift, RDS, Lambda, SQS, SNS, API Gateway…) GCP Contexte multi-cloud 💾 Data & Big Data SQL / NoSQL Data Warehouse Spark / Hadoop / HDFS Airflow ⚙ Dev / DevOps Python APIs (FastAPI / Flask) Docker Terraform GitLab CI/CD Linux
Freelance

Mission freelance
Product manager Référentiel & Data (5-10 ans)

ABSIS CONSEIL
Publiée le
Safe

3 ans
470-570 €
Maisons-Alfort, Île-de-France
Nous recherchons pour notre client en assurance un Product Manager intervenant sur deux périmètres clés : Référentiel Data / Infocentres Votre rôle s’inscrit dans un environnement SAFe , en interaction avec différentes équipes du train et potentiellement d’autres trains de la DSI. Vous contribuerez également à l’intégration de l’IA , notamment des IA agentiques , au service de la performance collective. Vos principales responsabilités Définir une vision produit claire, durable et alignée sur les besoins métier et utilisateurs. Construire et maintenir les roadmaps (Solution & PI). Gérer et prioriser le backlog produit (features, enablers). Collaborer avec les équipes métier, techniques et agiles pour garantir la cohérence des solutions . Piloter des projets transverses , tels que la migration DataStage. Recueillir et analyser les besoins clients pour guider les évolutions produits. Promouvoir et intégrer l’IA dans les pratiques opérationnelles. Compétences attenduesCompétences métier Maîtrise de la méthodologie SAFe (certification PM/PO souhaitée). Expérience en mise en œuvre de SI , conception fonctionnelle, animation d’ateliers, gestion de backlog. Connaissance de la modélisation des données . Pratique de l’ IA dans un contexte opérationnel. Compétences techniques Outils : Jira , Confluence , Suite Office. Bases de données & requêtage SQL . Tests : rédaction Gherkin , outils Selenium , Xray . Connaissance de l’environnement On Premise .
Freelance

Mission freelance
Data Scientist - Industry 4.0 - Belgique

ARTESIA IT
Publiée le
Data science

1 an
400-600 €
Belgique
Contexte Des usines spécialisées dans la production d’éléments de moteurs aéronautiques en titane réalisent des opérations d’usinage et de forge avec une précision extrême (jusqu’à 10 µm). L’équipe Manufacturing 4.0 fournit les outils digitaux, les technologies Industrie 4.0 et le support technique aux équipes métier et à la production industrielle. Structure du département L’équipe Manufacturing 4.0 regroupe des ingénieurs assurant l’interface entre le monde industriel et les systèmes IT permettant le pilotage intelligent des activités. On y retrouve notamment des compétences en : IT Platform Manufacturing Execution Systems UNS (Unified Namespace), collecte et distribution temps réel des données et indicateurs industriels Inspection Qualité Data (BI, Machine Learning, IA, etc.) Attrait pour la fonction Le programme consiste à concevoir et développer la solution technologique Manufacturing 4.0 du futur , intégrant notamment : pilotage par la donnée, robotique, intelligence artificielle. Fonction – Tâches principales En collaboration avec les équipes Manufacturing 4.0, IT et métiers industriels, vous serez amené à : Explorer, analyser et préparer les données issues des systèmes industriels (machines, capteurs, MES, inspection qualité…). Concevoir, entraîner et évaluer des modèles ML et/ou Computer Vision adaptés aux contraintes industrielles. Mettre en œuvre des pipelines end-to-end MLOps (training, validation, déploiement, monitoring). Déployer les modèles en production sur une architecture hybride on-prem / cloud avec containers et AWS SageMaker. Suivre la performance des modèles en production (qualité, dérive, robustesse) et proposer des améliorations. Intégrer les modèles aux systèmes existants via la chaîne CI/CD en lien avec les équipes IT. Documenter les solutions et diffuser les bonnes pratiques. Challenges Contribuer à la transformation Manufacturing 4.0 par la donnée et l’IA. Déployer des modèles robustes, fiables et maintenables en environnement industriel. Combiner innovation, contraintes industrielles et exigences de production. Faire preuve d’autonomie, proactivité et esprit critique constructif. Être force de proposition pour améliorer les pratiques Data Science et MLOps. Partager les bonnes pratiques avec les autres data scientists. Contacts internes et externes Intégration au sein de l’équipe Manufacturing 4.0 avec data, IT et ingénieurs industriels. Interactions avec les équipes MES, Qualité, Maintenance, UNS, IT et Cloud. Collaboration possible avec partenaires technologiques et fournisseurs de solutions.
CDI

Offre d'emploi
Product Manager Data F/H/X (H/F)

█ █ █ █ █ █ █
Publiée le

Paris, France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
Experienced DATA ENGINEER / TECH LEAD

Codezys
Publiée le
Data management
SQL

12 mois
Toulouse, Occitanie
Contexte de la mission Nous sommes à la recherche d’un(e) expert(e) en gestion de projets techniques, combinant compétences en ingénierie de données, SQL, ETL, et en outils de reporting, pour intervenir sur un secteur crucial lié à la gestion des données du cargo. La mission concerne principalement la manipulation, le chargement et la raffinage de données dans un datawarehouse dédié au domaine du cargo, en particulier pour les filiales d’Air France et KLM (AF&KL). Le(la) candidat(e) retenu(e) aura pour responsabilité d’assister l’équipe dans la maintenance des flux de données existants ainsi que dans le développement de nouvelles fonctionnalités. Il/elle participera activement aux projets en cours, apportant son expertise pour corriger d’éventuels dysfonctionnements et enrichir les solutions existantes. La mission nécessite une capacité à comprendre les enjeux métiers liés au transport de fret aérien et à traduire ces exigences en solutions techniques robustes et efficaces. L’équipe cible est composée de 8 professionnels, ce qui implique une forte collaboration et une communication fluide pour assurer la cohérence et la qualité du livrable dans un contexte dynamique et en constante évolution.
Freelance
CDI

Offre d'emploi
Architecte Data AWS

KLETA
Publiée le
Amazon Redshift
AWS Cloud

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data AWS pour définir et piloter l’évolution des plateformes de données cloud natives sur Amazon Web Services. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures en intégrant des services et technologies AWS tels que S3, Glue, Redshift, Athena, EMR, Kinesis ou des approches lakehouse lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance, de sécurité et de qualité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques data sur AWS.
Freelance

Mission freelance
245644/LeadTech DataOps Niort

WorldWide People
Publiée le
Control-M
Dynatrace
Informatica

3 mois
400-450 €
Niort, Nouvelle-Aquitaine
LeadTech DataOps Niort Ordonnanceur (Control M) Confirmé (***) Monitoring (Dynatrace/Grafana/Prometheus) Confirmé (***) ETL Powercenter / ELT DBT / Airflow Composer Élémentaire (*) Informatica MDM / IDQ Confirmé (***) Couche échange (Tibco / Kafka / Gateway) Confirmé (***) SQL (Oracle, MySQL, PostgreSQL) Élémentaire (*) No-SQL (Mongo DB) Avancé (**) Hadoop (HDFS, Spark) Avancé (**) Compétence Niveau Souhaité Google Cloud Platform (Big Query - Cloud Run) / Terraform) Élémentaire (*) Outil de consommation Tableau Élémentaire (*) Outil de consommation Dataiku Élémentaire (*) Déploiement continu (Gitlab, Openshift, CICD) Confirmé Le Data Office de mon client définit les orientations stratégiques dans le domaine de la donnée et assure l'homogénéité et la performance de l'écosystème Data. L'équipe Data OPS de Services Delivery Data est responsable de l'unification des pratiques d'exploitation, du déploiement continu (Gitlab Cloud & On-Prem) et de l'industrialisation des usages. Objectifs et Livrables Le prestataire retenu devra contribuer aux objectifs suivants et fournir les livrables associés : Objectif Livrable Collaboration et versions Détermination des versions des composants en collaboration avec les équipes de conception et les release manager. Disponibilité et stabilité Garantie de la disponibilité et de la stabilité des environnements (développement, test, déploiement continu). Supervision et diagnostic Documentation (ou auto-documentation) des dépendances pour la supervision et le diagnostic. Analyse des incidents Rapports d'analyse des causes racines des incidents et suivi des plans de remédiation. Gestion des configurations Application et documentation des configurations spécifiques à chaque environnement. Qualité et risques Vérification de la complétude des livrables (tests, documentation, conformité) et identification des risques de mise en production. Exigences Non Fonctionnelles (ENF) Participation à la définition des ENF (sécurité, performance, scalabilité, disponibilité, etc.). Suivi et garantie des ENF Suivi des ENF des applications du SI et garantie de leur implémentation en projet et en production. Traçabilité des changements Mise en place et suivi de la traçabilité des changements de configuration et de versions. Automatisation et maintenance Automatisation des déploiements et maintenance des pipelines CI/CD. Compétences Requises Le profil recherché doit démontrer une expérience significative et des compétences avérées. Savoir-Être (Soft Skills) ● Qualité de service et communication. ● Travail collaboratif avec traçabilité des actions. ● Leadership, réactivité, disponibilité, autonomie, force de proposition. ● Bonne connaissance des contraintes de production. ● Expérience significative en DevOps et Release Management. Compétences Techniques (Hard Skills) Objectifs et livrables Ordonnanceur (Control M) Confirmé (***) Monitoring (Dynatrace/Grafana/Prometheus) Confirmé (***) ETL Powercenter / ELT DBT / Airflow Composer Élémentaire (*) Informatica MDM / IDQ Confirmé (***) Couche échange (Tibco / Kafka / Gateway) Confirmé (***) SQL (Oracle, MySQL, PostgreSQL) Élémentaire (*) No-SQL (Mongo DB) Avancé (**) Hadoop (HDFS, Spark) Avancé (**) Compétence Niveau Souhaité Google Cloud Platform (Big Query - Cloud Run) / Terraform) Élémentaire (*) Outil de consommation Tableau Élémentaire (*) Outil de consommation Dataiku Élémentaire (*) Déploiement continu (Gitlab, Openshift, CICD) Confirmé
Freelance

Mission freelance
Senior Data Platform Engineer – Databricks / Snowflake (H/F)

TEOLIA CONSULTING
Publiée le
Azure Data Factory
CI/CD
Databricks

6 mois
550-560 €
Île-de-France, France
Dans le cadre du renforcement d’une équipe Data Engineering / Data Platform au sein d’un environnement international exigeant, nous recherchons un Senior Data Platform Engineer expert Databricks / Snowflake. Vous interviendrez sur la structuration, l’optimisation et l’industrialisation d’une plateforme data cloud moderne, au cœur d’enjeux stratégiques liés à la qualité, la performance et la fiabilité des données. Vos missions principales : Conception et optimisation de pipelines data sous Azure Data Factory et Databricks Modélisation, optimisation et sécurisation d’environnements Snowflake Structuration de modèles de données complexes (multi-sources, multi-réglementations) Industrialisation des workflows via GitHub Enterprise Cloud (CI/CD) Mise en place de bonnes pratiques de qualité et monitoring des données Contribution aux choix d’architecture et à l’amélioration continue de la Data Platform Collaboration étroite avec les équipes techniques et métiers Vous évoluerez dans un environnement à fort niveau d’exigence technique et organisationnelle, où la robustesse, la performance et la rigueur sont essentielles.
Freelance
CDI

Offre d'emploi
Data Engineer AWS

KLETA
Publiée le
Amazon Redshift
AWS Cloud

3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Data Engineer AWS pour concevoir, optimiser et industrialiser des plateformes analytiques cloud natives sur AWS. Vous analyserez des architectures existantes, proposerez des trajectoires d’évolution (refonte des pipelines, modernisation vers des traitements serverless, optimisation des modèles analytiques) et guiderez leur mise en œuvre avec des services tels que AWS Glue, Athena, Redshift, S3 et Kinesis. Vous serez responsable de la conception et de la fiabilisation des pipelines d’ingestion et de transformation, de l’amélioration des performances et de l’intégration de mécanismes d’observabilité et de qualité des données. Vous travaillerez main dans la main avec les équipes Cloud et DevOps pour intégrer les traitements dans des pipelines CI/CD robustes et adaptés aux contraintes d’exploitation. Vous aurez également un rôle clé dans la transmission de connaissances, l’animation d’ateliers techniques et l’accompagnement des équipes client sur les meilleures pratiques de data engineering cloud native et d’usage avancé d’AWS. Votre mission combinera expertise technique, rigueur méthodologique et capacité à structurer des solutions scalables et pérennes.
CDI

Offre d'emploi
Chef/Directeur de Projet Data (Sénior) - Lyon

KOMEET TECHNOLOGIES
Publiée le
AWS Cloud
Azure
Business Analyst

50k-65k €
Lyon, Auvergne-Rhône-Alpes
Rôle transversal positionné entre les équipes métier, les équipes Data Engineering, les Data Analysts/Modelers et les sponsors projets, vous intervenez sur : Des programmes Data d’envergure (Data Lakehouse, modernisation BI, Data Governance, MDM, Analytics avancés). Des environnements Cloud (Azure, GCP, AWS) et des architectures modernes (Data Mesh, Datavault). Des enjeux de pilotage projet, de cadrage fonctionnel et d’accompagnement à la transformation Data. En tant que Senior (+8 ans), nous attendons de vous : Une grande autonomie et capacité à sécuriser un projet ou un périmètre. Une forte expérience en gestion de projets Data complexes. Une capacité à accompagner les équipes, structurer les pratiques et diffuser la culture Data. Une maîtrise avancée des méthodologies de modélisation (3NF, Étoile/Flocon, Data Mesh…), des pipelines ETL/ELT, et des outils BI.

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

5677 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous