Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 364 résultats.
Freelance

Mission freelance
Ingénieur Réseau & Sécurité (H/F)

Freelance.com
Publiée le
Azure
BGP (Border Gateway Protocol)
Check Point

1 an
400-440 €
Bordeaux, Nouvelle-Aquitaine
Rejoignez une équipe de plus de 600 passionné(e)s de la Tech engagée dans le développement de plateformes B2B et B2C à forte volumétrie. Dans le cadre du renforcement du pôle Infrastructure & Production , nous recherchons un(e) Ingénieur(e) Réseau & Sécurité expérimenté(e) pour intervenir sur des environnements critiques mêlant cloud, datacenter et solutions de cybersécurité avancées. Vous jouerez un rôle clé dans la performance, la résilience et la sécurité des infrastructures réseau. Vos missions Administrer, superviser et faire évoluer les infrastructures réseau (LAN / Wi-Fi) (Cisco Catalyst, Meraki, ACI, NCS) Configurer et optimiser les protocoles réseau : BGP, MP-BGP EVPN, MPLS, VXLAN, OSPF Déployer et maintenir les solutions de sécurité : WAF (Cloudflare, F5, Citrix), Firewalls Checkpoint (dont Maestro) Mettre en œuvre des solutions SSE (Cato Networks) Exploiter des environnements hybrides intégrant Microsoft Azure Superviser via Zabbix et Grafana Diagnostiquer et résoudre des incidents complexes (tcpdump, Wireshark…) Rédiger la documentation technique et les procédures Gérer les opérations datacenter (cross-connect, gestes de proximité) Automatiser les tâches via Python / Bash et IaC avec Terraform Administrer les services réseau : DNS, DHCP, GSLB / Load Balancing
CDI

Offre d'emploi
Chef de projet data groupe H/F

HAYS France
Publiée le

Tarare, Auvergne-Rhône-Alpes
Votre périmètre couvrira l'ensemble des directions métiers (Commerce, Finance, Supply Chain, Achats, RH, R&D…) ainsi que des filiales françaises et internationales. Vos responsabilités incluront : Piloter des projets data de bout en bout : cadrage, recueil des besoins, suivi, déploiement et mise en utilisation. Contribuer aux volets data des grands projets de transformation du groupe (ERP, CRM, WMS, outils métiers…). Assurer la coordination entre les équipes métiers, IT et data. Participer à la mise en place et à l'amélioration continue de la gouvernance de données (qualité, référentiels, catalogage). Participer à la définition, au suivi et à l'analyse des KPIs liés à la performance data. Challenger les besoins métiers et accompagner l'évolution des usages data. Les environnements techniques couvrent tout le cycle de vie de la donnée : Data Lake, Data Warehouse, Data Hub, MDM, PIM/DAM, Data Catalog, Data Quality, Data Visualisation, Data Export.
CDI
Freelance

Offre d'emploi
Data Engineer Teradata/Python/Hadoop/Unix

OBJECTWARE
Publiée le
Hadoop
Python
Teradata

3 ans
40k-70k €
400-550 €
Île-de-France, France
La tribu « CRM » est en charge du parc applicatif dédié à la mise en œuvre et au suivi de l’ensemble de la relation client-banque et des outils de conformité (fraude, lutte contre le blanchiment et financement du terrorisme). La mission consiste à assurer les fonctions suivantes au sein de la Squad Conformité et Sécurité Financière : • vous contribuerez à la construction des solutions Datalab et Datamart sous technologie Teradata, en étroite collaboration avec les autres membres de la Tribu • vous aurez en charge le développement des solutions de collecte des données, de leur stockage et traitement (constitution d’agrégats ou scores), et de leur mise à disposition des DataScientists : une expérience des environnements Unix, du sql et des SGDB relationnels est indispensable ainsi que des bonnes pratiques de développement et modélisation sous technologie Teradata BTEQ. • vous serez amenés à développer sur notre plateforme Big Data. Une forte connaissance de Spark, HDFS, Python, Hadoop est demandée. Les compétences suivantes devront être maîtrisées : • Mode de chargement dans l’entrepôt (ETL) : BTEQ • Teradata • CONTROL-M • Environnement UNIX ( répertoires principaux, Usage & Entrepôt ) • SQL sur SGBD relationel (Teradata) • TPT • Outils collaboratifs et documentaires : GIT, Jira, Confluence, MEGA, Zeenea • Spark • HDFS • Python • Hadoop
Freelance
CDI

Offre d'emploi
Développeur SAP ABAP – Migration ECC vers S/4 HANA (SQL / Data)

Etixway
Publiée le
ABAP
SAP
SAP ABAP

1 an
40k-50k €
400-560 €
Boulogne-Billancourt, Île-de-France
Dans le cadre d’un projet de transformation majeur, nous recherchons un Développeur SAP ABAP pour intervenir sur une migration SAP ECC vers S/4 HANA . Le consultant interviendra sur des sujets techniques à forte valeur ajoutée, notamment autour de la reprise, transformation et manipulation des données SAP . Une formation est prévue sur l’outil de migration utilisé (ADM), toutefois une expérience sur des projets similaires est fortement attendue. Missions principales : Développement ABAP dans un environnement ECC / S/4 HANA Manipulation et exploitation des tables SAP Participation aux travaux de migration de données (ECC → S/4) Analyse et transformation des données Développement et adaptation des programmes existants dans un contexte de migration Collaboration avec les équipes techniques et fonctionnelles Environnement : SAP ECC, S/4 HANA, ABAP, SQL
Freelance

Mission freelance
POT9134 - Un Consultant expert – Data Migration SAP (Alteryx apprécié) sur Toulouse

Almatek
Publiée le
Alteryx

6 mois
Toulouse, Occitanie
Almatek recherche pour l'un de ses clients, Un Consultant expert – Data Migration SAP (Alteryx apprécié) sur Toulouse Nous recherchons actuellement un consultant expert en data migration SAP, avec une maîtrise des environnements S/4HANA (héritage ECC). La connaissance d’Alteryx est appréciée. Éléments de cadrage du besoin Contexte & outils Programmes de transformation SAP S/4HANA Outils de migration incluant notamment Alteryx (flux de transformation) Positionnement Profils confirmés à seniors Intervention opérationnelle (hands-on) sur les flux de migration Capacité à structurer les travaux et à encadrer ponctuellement des profils juniors Périmètre Master Data (clients, fournisseurs, articles) Enjeux de qualité, transformation et fiabilisation Interventions possibles sur des objets transactionnels / opérationnels selon les phases Langues Français et anglais requis Niveau d’autonomie Élevé dès le démarrage Localisation : Toulouse, avec déplacements à la marge (principalement Paris) Présence : hybride (1 à 2 jours/semaine sur site, variable selon phases – cutover/go-live)
CDI

Offre d'emploi
Product Owner finances publiques F/H - Informatique de gestion (H/F)

█ █ █ █ █ █ █
Publiée le
Scrum
SQL

Boulogne-Billancourt, Île-de-France

Offre importée

Offre issue du marché tech, identifiée automatiquement pour vous donner une vue complète des opportunités.

Accès restreint à la communauté

Rejoignez notre plateforme pour accéder aux détails de cette offre et obtenir un accès aux meilleures offres du marché.

Freelance

Mission freelance
CONSULTANT TECHNQUE BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS

PROPULSE IT
Publiée le
Azure
BI
DevOps

24 mois
300-600 €
Nanterre, Île-de-France
CONSULTANT BI DATA EXPERT SSIS SQL SERVEUR AZURE DEVOPS Expérience ciblée : PLUS DE 10 ANS Compétences impératives - Compétences techniques : Conception / Modélisation BI (Flux & modèles de données) Expériences significatives sur la mise en place complète de projets BI Data ETL (conception, modélisation, réalisation) et sur le RUN en environnement Full Microsoft (SSIS, SQL Server : Modélisation, procédures stockées, optimisation SQL, etc.). Connaissance et mise en œuvre de la suite Microsoft AZURE DEVOPS (Git, Board Agile, Pipeline de déploiement CI/CD). Anglais professionnel courant - Compétences organisationnelles Expérience significative sur l'implémentation de projets BI d'intégration de données (datawarehouse & datamarts) Avoir la capacité de mener des mini-projets en autonomie tout en étant accompagné par un(e) maitrise d'ouvrage et/ou le métier. Capacité à s'organiser, à s'adapter sur les priorités, à synthétiser l'état d'avancement de ses activités et à remonter les alertes si besoin. - Compétence(s) appréciée(s) : Outils de reporting BI : TABLEAU, IBM Cognos, Power BI Habitué aux relations avec des partenaires offshore Certifications sur la suite MSBI - Descriptif détaillé de la mission : Assurer le RUN des applications existantes (ETL, Bases de données, support niveau 3) Comprendre les enjeux métier, problématiques à résoudre et opportunités à concrétiser. Echanger et challenger les besoins métiers avec les équipes AMOA BI en tenant compte des contraintes techniques. Proposer, concevoir et spécifier des solutions techniques viables, évolutives et tenant compte de l'existant. Rédaction des documents techniques (spécification techniques, document d'exploitation…etc). Conseiller, proposer des axes d'amélioration, alerter si besoin. - Environnement technique de la mission : Socle Data : SSIS, SQLServer (2016), procédures stockées, Azure DevOps (Git, Board Agile, Pipeline de déploiement CI/CD) Reporting : COGNOS BI 10.2 et 11 & Tableau Date début de mission : ASAP Durée estimée de la mission : longue - 3 mois (renouvelables)
Freelance

Mission freelance
Data Science IA Snowflakes / Snowflakes Cortex Analytics 550 e par j

BI SOLUTIONS
Publiée le
Python
Snowflake

2 ans
400-550 €
Île-de-France, France
Data Science IA Snowflakes / Snowflakes Cortex Analytics 550 e par j Développer des applications Streamlit in Snowflake offrant une interface conversationnelle intuitive. Intégrer les agents IA dans des dashboards analytiques existants ( Headcount, Turnover, People Cost, Learning KPI Cockpit ). Gérer l'expérience utilisateur : historique, feedback loop et gestion des incertitudes. 5. 📊 Gouvernance & Observabilité IA Mettre en place le monitoring des appels LLM (tokens, latence, qualité). Contribuer à la maîtrise des coûts GenAI (optimisation des modèles, caching, gestion des warehouses). Documenter le ROI des cas d'usage (adoption, précision, gain de temps métier). 🔧 Compétences techniques requises Indispensables ✅ Snowflake (min. 3 ans d'expérience) : Modélisation avancée, SQL, Snowpark (Python), Sécurité (Row Access Policies, Column Masking). ✅ Snowflake Cortex : Cortex Analyst (modèles sémantiques YAML), Cortex Search (RAG), LLM Functions, Cortex Code (CoCo) et Cortex CLI. ✅ IA & Agents : Conception et déploiement d'agents au sein de l'écosystème Snowflake. ✅ Streamlit in Snowflake : Développement d'applications conversationnelles embarquées. ✅ Serveurs MCP : Conception et exposition de serveurs Model Context Protocol. ✅ Python avancé : LangChain / LlamaIndex, gestion des prompts, orchestration LLM. ✅ Méthodologies : Maîtrise des concepts RAG, ReAct, Chain-of-Thought, Function Calling 550 e par j
Freelance
CDI

Offre d'emploi
DATA ENGINEER PYTHON

UCASE CONSULTING
Publiée le
Azure
Azure Kubernetes Service (AKS)
Jenkins

3 ans
40k-60k €
500-580 €
Paris, France
2 DESCRIPTION DE LA MISSION 2.1 Objectifs La prestation, objet du présent cahier des charges, est une prestation à temps plein pour 1 Data Engineers Python. Vous interviendrez d’un nouveau lot sur un projet déjà initié il y a un an. Vous intégrerez une équipe existante composée de 3 Data Engineers et d’un Chef de Projet. Au sein de l’équipe, vous aurez à charge la réalisation de ce lot projet. Le projet est piloté en agilité, par conséquent le delivery sera détaillé sous formes d’US. Chaque US comprend du développement, des tests, de la documentation. Les technologies associées sont Python, Pandas/Polars, Kubernetes et Azure. 2.2 Description détaillée des tâches qui constituent la mission Dans le cadre de cette prestation, il est notamment demandé de réaliser les livrables décrits ci-dessous. S'agissant d'un projet mené en agilité, le découpage des livrables est réalisé par sprints. Le contenu de chaque sprint est identique, seul le détail des US (User Stories) change. A noter que ces livrables sont réalisés par l'équipe projet, il n'y a pas de responsabilité de production individuelle. Les sprints projet s'échelonnent généralement sur 2 semaines. Sur la base des 3 mois de prestation, il y aurait donc 6 sprints. Livrables n°X : Sprint n°X Lot 1 : développement des US et tests associés ; Lot 2 : Documentation projet, mapping des données, modélisation des pipelines, documents d'exploitation ; Lot 3 : Mise en place du CI/CD sur notre usine logicielle ; Lot 4 : Mise en place du monitoring ; 2.3 Dates souhaitées de début et de fin de mission Date de début : 13/04/2026 Compétences sur les méthodes et les outils Requises • maîtrise du langage Python et de son écosystème (packaging, gestion de versions…) • maîtrise des librairies Data, en particulier Pandas et/ou Polars • maîtrise de la CI/CD sous Jenkins • maîtrise du cloud, en particulier Azure • expérience dans le développement de job batch sur Kubernetes (AKS) • bonnes pratiques de développement
Freelance

Mission freelance
251774/Data Engineer (Snowflake / Qlik) - RENNES, NANTES, BREST, CAEN

WorldWide People
Publiée le
Snowflake

3 mois
Bretagne, France
Data Engineer (Snowflake / Qlik) - RENNES, NANTES, BREST, CAEN Ingénieur Data & BI (Snowflake / Qlik) Pour l'un de nos clients, nous recherchons un Ingénieur Data et BI. Périmètre Data : L'équipe Data intervient sur plusieurs domaines (Data Engineering, Data Viz, … ) Data Visualisation et BI (Qlik Cloud) : Préparer et transformer les données pour leur exploitation. Concevoir, développer et maintenir des applications et tableaux de bord interactifs. Proposer des designs pertinents de dashboards répondant aux besoins métiers. Gérer les accès utilisateurs et groupes. Assurer la maintenance et la qualité des applications existantes. L'équipe intervient également à la partie reporting et administration : Conception et automatisation de rapports (Excel, PDF, …). Supervision de la plateforme Qlik : gestion des catalogues et applications, suivi des licences, clés et APIs. Diagnostic et résolution des incidents (logs, API Qlik). Compétences requises : 3 ans d'expérience sur l’utilisation de Qlik (QlikSense, QlikCloud ...) et Snowflake (préparation et optimisation des données). Bonne compréhension des principes d’architecture BI et des bonnes pratiques de modélisation. Capacité à optimiser les applications et améliorer la performance des modèles de données. Points clés pour réussir Être autonome et curieux : (forums, documentation, veille technique)... Avoir une base technique solide sur les modules de Qlik (Analyse, Automation). Comprendre les enjeux d’administration, même si ce n’est pas le cœur du métier. Être capable de diagnostiquer les problèmes d’accès, de configuration ou de logique métier. Autonome, curieux, capacités relationnelles Objectifs et livrables Data Visualisation et BI (Qlik Cloud) : Préparer et transformer les données pour leur exploitation. Concevoir, développer et maintenir des applications et tableaux de bord interactifs. Proposer des designs pertinents de dashboards répondant aux besoins métiers. Gérer les accès utilisateurs et groupes. Assurer la maintenance et la qualité des applications existantes. Compétences demandées Compétences Niveau de compétence QlikCloud Avancé QLIKVIEW Confirmé Snowflake Avancé Architecture BI Confirmé QlikSense Confirmé
Freelance

Mission freelance
ETL / Data Streaming Project Manager

Comet
Publiée le
Apache Kafka
API
CRM

6 mois
400-570 €
Île-de-France, France
Contexte de la mission Au sein de l’équipe Architecture et Intégration dans un contexte international et multiculturel, vous aurez pour missions principales de gérer et piloter les lignes de services intégration ETL : Talend (Cloud - plate-forme hybridé) et Data Streaming ( Kafka Confluent - Cloud) Objectifs et livrables Le support / suivi / maintenance de l’existant (Projet CRM / Annuaire / PIM) Accompagnement dans la création de nouveaux projets (analyser le besoin des clients, le challenger, cadrage technique : définition d’architecture et conception technique des flux) Piloter l’équipe en Inde (en charge des développements / tests / déploiements) Gérer un plan de charge et proposer des plannings Administration et suivi opérationnel de notre plateforme Talend et des composants On Prem (upgrade, monitoring, résolution de problème ponctuel) Administration et suivi opérationnel de la plateforme Kafka Confluent Cloud Suivi de la facturation pour ces 2 plateformes Etablir, partager et faire partager les bonnes pratiques (configuration / développements …) Compétences demandées Connaissances CRM Salesforces - Élémentaire Talend Data Integration studio V8 - Expert API & format fichier Json, Xml, Csv - Confirmé management équipe - Confirmé Java8+ - Confirmé Linux/Unix - Confirmé KAFKA - Confirmé SQL et Base de données - Confirmé Source management ( Gitlab) - Confirmé Niveau de langue Français - Courant Anglais - Courant
CDI
Freelance

Offre d'emploi
Tech Lead Data xDI/Python/Snowflake/GCP & CI/CD

OBJECTWARE
Publiée le
CI/CD
Google Cloud Platform (GCP)
Microsoft SQL Server

3 ans
40k-85k €
400-650 €
Île-de-France, France
Responsabilités principales : Pilotage Technique : - Définir et faire respecter les bonnes pratiques de développements, de versioning et d'industrialisation des flux data - Réaliser les revues de code, assurer la cohérence et la robustesse technique des traitements - Participer à la conception des architectures cibles en lien avec les architectes data et les équipes DSI. - Contribuer à l'amélioration continue des performances et de la stabilité des pipelines Conception et industrialisation : - Concevoir, développer et maintenir des pipelines de collecte, de transformation et de diffusion des données (ETL/ELT) - Mettre en œuvre les solutions d'orchestration et d'automatisation - Participer à la migration des flux SAS vers des solutions modernes (ex : Snowflake) - Veiller à la documentation, à la supervision et au monitoring des traitements Encadrement et accompagnement : - Accompagner techniquement les data engineers dans leurs développements et leur montée en compétence - Promouvoir les bonnes pratiques DataOps (CI/CD, test, observabilité, monitoring) - Faciliter les échanges entre les équipes data, architecture, sécurité et métier Gouvernance et qualité : - Contribuer à la mise en place des standards de qualité, de traçabilité et de sécurité des données - Collaborer avec le Data Quality Officer sur les sujets de contrôle d'alerting - Participer à la mise en place de mécanismes de data lineage et de gestion des metadonnées Expérience : Expérience sur des architectures cloud data (idéalement GCP) Expérience confirmée dans l'industrialisation et la mise en production des pipelines data Langages et outils : - Obligatoires : Python, SQL, Spring Batch - Data platform : GCP, Snowflake (bonne connaissance apprécié) - ETL/ELT : XDI - CI/CD & Infra : Gitlab, Docker, Terraform, Kubernetes Architectures : - Architecture Data Moderne (Data Lake/House, Data Mesh, ELT Cloud etc) - Performance et optimisation des flux - Sécurité, gouvernance et qualité des données - Supervision et observabilité
Freelance

Mission freelance
Proxy Product Owner

Codezys
Publiée le
API
Data management

12 mois
Lyon, Auvergne-Rhône-Alpes
Contexte : Vous intégrerez le département Architecture & Exploitation de la Direction des Systèmes d'Information dans le cadre du programme IAM , en particulier sur le projet IGA . Objectif du projet : Mettre en place une solution de Gestion des Identités et des Accès pour gagner en autonomie par rapport à la solution du groupe, réduire les délais d’accès aux applications, et fiabiliser le traitement pour minimiser les erreurs et écarts entre droits théoriques et réels. Structure du projet : Lot Solution : conception et déploiement de la solution IGA basée sur le produit OIM. Lot Raccordement : raccordement automatisé des applications jusqu’ici raccordées manuellement. Rôle et responsabilités : En tant que Proxy Product Owner pour le lot Raccordement, vous serez intégré(e) à l’équipe produit et aurez pour missions : Cadrer et concevoir les raccordements en : analysant les besoins d’habilitation des applications définissant les spécifications fonctionnelles d’intégration définissant les règles de mapping des données (identités, rôles, attributs) Piloter la réalisation des raccordements, en : collaborant avec les équipes produit, techniques et cybersécurité s’assurant de la bonne compréhension et utilisation des API et mécanismes d’intégration accompagnant dans la mise en œuvre des flux de provisioning Objectifs clés : Sécuriser le provisioning des habilitations Assurer la compréhension des mécanismes d’intégration Garantir la cohérence du mapping des données Maintenir la qualité fonctionnelle des intégrations Responsabilités principales : Analyser et définir les besoins pour les connecteurs applicatifs, incluant flux d’intégration et règles de provisioning Piloter le raccordement des applications, de la phase de cadrage à la mise en production Valider le mapping des données entre le produit et les applications Coordonner les équipes impliquées et animer les ateliers, comités et points de suivi Anticiper et gérer les risques et dépendances Suivre et reporter l’avancement, tenir à jour les outils de pilotage Veiller à la conformité des intégrations avec les standards IAM et processus internes Participer au fonctionnement Agile de l’équipe (backlog, priorisation, rituels)
Freelance

Mission freelance
Responsable Intégration ETL & Data Streaming (Talend / Kafka)

Kamatz
Publiée le
Apache Kafka
API
Gitlab

6 mois
La Défense, Île-de-France
Vos missions principales Au sein de l’équipe Architecture & Intégration, vous pilotez les services d’intégration de données autour des technologies Talend (Cloud / plateforme hybridée) et Kafka Confluent Cloud . À ce titre, vous serez en charge de : Maintien en conditions opérationnelles Support, suivi et maintenance des solutions existantes (CRM, Annuaire, PIM) Cadrage & accompagnement des projets Analyse et challenge des besoins métiers Définition des architectures techniques Conception des flux d’intégration Pilotage d’équipe internationale Management d’une équipe basée en Inde (développement, tests, déploiement) Organisation, priorisation et suivi des activités Gestion de projet Élaboration des plans de charge Construction et suivi des plannings Administration des plateformes Supervision et gestion opérationnelle de Talend (incluant On-Prem : upgrades, monitoring, incidents) Administration de Kafka Confluent Cloud Suivi budgétaire Pilotage de la facturation des plateformes Amélioration continue Définition et diffusion des bonnes pratiques (configuration, développement, architecture) Stack technique Talend Data Integration (v8) – Expert Kafka / Confluent Cloud API (JSON, XML, CSV) Java 8+ SQL / Bases de données Linux / Unix GitLab Salesforce (notions)
Freelance

Mission freelance
PO data/BI - xp Supply Chain

FF
Publiée le
Google Cloud Platform (GCP)
Microsoft Power BI

1 an
Paris, France
Bonjour à tous, Je suis à la recherche d’un Product Owner Data/BI orienté technique (background technique dans l'idéal) qui maitrise : Obligatoire : - L’environnement GCP – BigQuery - Expérience(s) côté Supply chain - Vous avez une bonne connaissance de Power BI. - Vous êtes rompus aux techniques de l’agilité. Démarrage : ASAP / fin juin Lieu : Paris Télétravail : 2 jours par semaine Durée de la mission : 1 an ou + Si votre profil correspond, n'hésitez pas à postuler ! A bientôt,
Freelance

Mission freelance
Data Analyst Performance

CAT-AMANIA
Publiée le
Confluence
JIRA
Tableau Desktop

12 mois
300-450 €
Lyon, Auvergne-Rhône-Alpes
Dans un contexte de pilotage de la performance IT et de suivi des activités opérationnelles, vous intervenez en tant que Data Analyst afin d’analyser les indicateurs liés au turnover IT (ressources, activité, performance, incidents) et d’identifier des leviers d’optimisation. Vous êtes en charge du suivi, de l’analyse et de la restitution des données à destination des équipes métiers et techniques, avec une forte autonomie et un rôle clé dans la prise de décision. Suivre et analyser les indicateurs de performance liés au turnover IT (entrées/sorties, staffing, charge, performance opérationnelle) Concevoir, maintenir et faire évoluer des tableaux de bord de pilotage (KPI, reporting opérationnel et stratégique) Identifier les anomalies, signaux faibles et dérives dans les données (qualité, performance, organisation) Produire des analyses détaillées et formuler des recommandations d’optimisation Consolider et fiabiliser les données issues de sources multiples Animer des réunions de restitution (comités de pilotage, comités opérationnels) Collaborer avec les équipes métiers et techniques pour activer des leviers d’amélioration Challenger les processus existants et proposer des axes d’optimisation data-driven

Déposez votre CV

  • Fixez vos conditions

    Rémunération, télétravail... Définissez tous les critères importants pour vous.

  • Faites-vous chasser

    Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.

  • 100% gratuit

    Aucune commission prélevée sur votre mission freelance.

5364 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous