Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 022 résultats.
Freelance

Mission freelance
Data Scientist Machine Learning / Deep Learning Aix en Provence/l

WorldWide People
Publiée le
Data science

6 mois
400-440 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Data Scientist Machine Learning / Deep Learning Aix ASAP Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch Activité principales attendues : Machine Learning / Deep Learning • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche ML/DL. • Création et production de modèles d'apprentissage automatique industrialisables • Traitement de données à grande échelle pour la création de jeux de données d'entraînement • Appliquer les bonnes pratiques de MLOps et d'explicabilité des modèles • Présenter les résultats aux parties prenantes et aider au suivi à long terme de la performance du modèle pour démontrer la valeur de l'IA IA Générative • Évaluer le problème métier et prouver la valeur via l'analyse exploratoire des données pour démontrer la valeur d'une approche IA Gen • Prompt engineering • Bench via des solutions d'évaluation des modèles d'IA Gen • Optimisation des solutions (paramétrage des modèles) Compétences et expériences demandées : - Expérience +2 ans sur l'IA Gen : prompt engineering, context engineering, construction de workflow avec RAG, tool calling, MCP, implémentation de guardrails. - Expérience significative en Machine/Deep Learning (traitement du langage naturel, traduction automatique, etc.), Vision (vision par ordinateur, reconnaissance, etc.), et sur le cycle de vie des modèles IA (de la conception vers l'industrialisation, puis la supervision en production de sa valeur). Une base solide en Python est requise pour l'exploration des données, l'évaluation d'un modèle ou la construction d'une API python. - Connaissance de SQL - Solide connaissance de Pandas, Jupyter Notebook, Scikit-learn, Numpy, Streamlit - Maîtrise des frameworks ML distribués modernes tels que TensorFlow, PyTorch - Pratiquer une veille active sur vos domaines de compétence. - Participez activement à la construction de la stratégie en effectuant la veille technologique, étant force de proposition sur les nouveaux outils / nouvelles méthodes à utiliser et le partageant avec le reste de l’équipe
Freelance

Mission freelance
Architecte SI / Architecte d'entreprise : delivery Data & IA et exploitabilité

INSYCO
Publiée le
API
Architecture
Backlog management

18 mois
600-750 €
Paris, France
Bonjour, Nous recherchons pour notre client grand compte un Architecte SI / Architecte d'entreprise senior spécialisé delivery Data & IA et exploitabilité Nous étudions - prioritairement - les candidatures qui nous sont adressées à freelance à insyco . fr avec les informations suivantes : Argumentaire écrit répondant de façon ciblée au besoin ci-dessous CV à jour au format Word Date de prochaine disponibilité Tarif journalier Merci d'indiquer la référence KTR/ARC/5304 dans l'objet de votre message Dans le cadre de programmes stratégiques, notre client recherche un Architecte SI / Architecte d'entreprise senior pour accompagner sa direction IT transverse. Les fondations techniques étant déjà en place, l'enjeu n'est plus de concevoir mais de : Structurer des processus opérationnels clairs Accompagner leur mise en oeuvre réelle sur le terrain Garantir des résultats concrets et durables La prestation consiste à définir, structurer et déployer les processus permettant de sécuriser les phases de delivery des sujets Data & IA et la réussite des mises en exploitation (24/7) des projets stratégiques, tout en accompagnant opérationnellement les équipes pour garantir leur adoption et leur efficacité. Vision & architecture Garantir la cohérence globale entre stratégie métier, architectures SI, plateformes et solutions Data et IA, Clouds, et contraintes d'exploitation Traduire les besoins métiers en solutions structurées Piloter les trajectoires SI (cloud, data, API, microservices) Exploitabilité & mise en service des projets stratégiques Garantir des mises en production fiables, maîtrisées et industrialisées. Processus à structurer (référentiel ITIL) Processus d'enrichissement de la CMDB (outil de gestion des actifs IT) Audit et optimisation des processus : Release Management, Change Management, Incident & Problem Management Audit et optimisation des critères de Go Live, des exigences d'exploitabilité dès la conception (Shift Left), des dispositifs de supervision, monitoring et gestion des alertes Structuration des environnements (DEV / PREPROD / PROD) Documentation et organisation du RUN Appui direct aux équipes projets sur les phases de mise en production Sécurisation des Go Live Coordination BUILD / RUN Mise en place des rituels d'exploitation Accompagnement des équipes RUN Approche orientée fiabilité, fluidité et industrialisation Data / IA - Delivery Définition d'un processus end-to-end Data / IA pour réussir le delivery des plateformes et des solutions techniques Suivi des : Backlog Data / IA, gouvernance des usages, critères de priorisation (valeur, ROI, faisabilité), standards (qualité des données, cycle de vie des modèles, monitoring) Mise en place des rituels de pilotage Appui à l'industrialisation des premiers use cases Approche pragmatique, orientée delivery et adoption rapide
Freelance

Mission freelance
Data Engineer

Orcan Intelligence
Publiée le
DBT
Docker
ETL (Extract-transform-load)

3 mois
400-500 €
Paris, France
Dans le cadre du développement de solutions data à l’échelle de l’entreprise, nous recherchons un Data Engineer Senior. Vous interviendrez sur la conception et la mise en œuvre de solutions de data warehouse, en manipulant de grands volumes de données structurées et non structurées. Vous collaborerez étroitement avec les architectes data et les équipes métier afin de traduire les besoins en solutions techniques robustes et performantes. Missions principales Traduire les besoins métier en spécifications techniques Développer des flux ETL (outils natifs type TPT, SQL et outils tiers comme DBT) Rédiger et optimiser des requêtes SQL complexes et scripts shell Concevoir et développer des pipelines de données (batch et streaming) Mettre en place des solutions d’ingestion de données à faible latence Définir et implémenter des processus d’intégration dans l’environnement IT Superviser les performances et recommander des optimisations Rédiger et maintenir la documentation technique Interagir avec les clients pour affiner les besoins Supporter les équipes projet et delivery
Freelance

Mission freelance
DATA ANALYST SENIOR LOOKER

PROPULSE IT
Publiée le

24 mois
300-600 €
Paris, France
Polyvalent.e, vous travaillerez sur des problématiques d'analyse de données, de traitements d'informations pour l'ensemble des directions métiers Vous participerez à la mise en place de solutions innovantes et pérennes en utilisant vos compétences en Data. En charge d'exploiter et d'analyser les données du groupe afin de suivre les performances business, de parfaire la connaissance de nos données et de contribuer aux actions métier. Missions principales : Vos principales missions seront : · Développer des indicateurs de pilotage à destination de différentes directions du groupe, · En lien avec le métier, analyser les données et spécifier aux développeurs les données et règles de gestion à appliquer · Mettre en place des reportings (Cockpit, Scorecard ...) via nos solutions de data visualisation, · Accompagner les projets transverses afin d'anticiper les impacts et enjeux à venir, · Accompagner les projets d'architecture Data/ couche sémantique sur Look ML · Réaliser des analyses et restituer les enseignements via des dashboards et supports clairs, · Être force de proposition pour déployer des suivis d'indicateurs pertinents, · Participer au développement de la culture Data du groupe
CDD
CDI
Freelance

Offre d'emploi
Data Analyst DATA/ AMOA

KEONI CONSULTING
Publiée le
AMOA
Big Data
Business Analyst

18 mois
20k-60k €
100-500 €
Niort, Nouvelle-Aquitaine
Contexte de la mission : Dans le cadre de Solutions Data, nous avons besoins d’un profil de Business Analyst DATA/ AMOA pour intervenir rapidement et venir renforcer l’équipe Conseil et Valorisation Data . MISSIONS : Principales missions : - Assurer une proximité et accompagner les direction métiers sur les usages autour de la donnée - Réaliser les études et apporter le bon conseil vers les métiers sur le volet Data - Assurer le support et l’assistance métier des usages Data - Contribuer à la production des livrables de niveau fonctionnel En détail : • Recueillir et analyser les besoins métiers, • Apporter le conseil nécessaire aux direction Métier sur l’exploitation de la donnée, • Participer au cadrage des projets Data (études d’impacts, faisabilité) • Contribuer aux études d’opportunité et de faisabilité sur le volet Data, • Garantir la cohérence fonctionnelle et technique du SI • Réaliser les recettes fonctionnelles, qualifier les anomalies et suivre les corrections • Produire des livrables fonctionnels (modélisations de données, SFG, SFD), • Tenir à jour la base documentaire du patrimoine, • Garantir la bonne satisfaction métier Data (qualité, engagement, cout, délai). Environnement technique : • Ecosystème DATA SI Décisionnel (ORACLE/Informatica) et plateforme Big Data (Cloudera) Pré-requis : • Expérience dans des projets Data (SI Décisionnel, plateforme Big data) • Sensibilité aux enjeux de gouvernance et qualité des données • Connaissance du secteur assurance
Freelance

Mission freelance
Sofware Engineer

OCTOGONE
Publiée le
API
Azure AI Foundry
Python

3 mois
130-630 €
Saint-Étienne, Auvergne-Rhône-Alpes
Notre client développe une plateforme d’intelligence artificielle destinée à des utilisateurs professionnels, avec une cible prioritaire sur les PME et ETI évoluant dans des secteurs à fortes contraintes (industrie, juridique, santé). L’objectif : permettre des usages concrets de l’IA générative en entreprise tout en garantissant un haut niveau de sécurité, de confidentialité, de traçabilité et de maîtrise des données. Le projet est en phase de démarrage delivery : l’architecture cible est formalisée (DAT validé), la stack est arrêtée, et nous recherchons un profil senior pour porter le développement de la couche d’orchestration et des services backend critiques. Au sein d’une équipe technique resserrée et en lien direct avec le porteur du projet, vous prenez la responsabilité de la conception et du développement de la couche backend critique de la plateforme : API conversationnelle, intégration Azure AI Factory, logique de routage. Vous êtes un acteur clé sur les choix d’implémentation de l’orchestration IA et garantissez la qualité, la sécurité et la performance des services développés.
CDI
Freelance

Offre d'emploi
Architecte Big Data IA

CHARLI GROUP
Publiée le
Gouvernance
IA
Natural Language Processing (NLP)

3 ans
Paris, France
1. Contexte du service : Cette mission vise à établir un cadre complet pour la gestion des données non structurées afin de soutenir les initiatives axées sur les données et l'IA. Elle a pour objectif de définir des normes, des règles et des cadres garantissant la fiabilité et la réutilisabilité des données, et facilitant ainsi le déploiement de solutions de données et d'IA évolutives grâce à la collaboration avec les parties prenantes concernées. Cette activité comprend le pilotage d'approches innovantes, la consolidation des enseignements tirés et la garantie de l'alignement avec les stratégies de données globales. 2. Périmètre du service: : Développement du socle méthodologique de la gestion des données non structurées, aligné sur les meilleures pratiques du secteur. Définition et documentation des normes, règles et cadres garantissant la qualité, la cohérence et la réutilisabilité des données. Coordination avec les parties prenantes internes pour recueillir leurs retours et assurer l'alignement avec les objectifs stratégiques. Tests pilotes de cadres de données non structurées innovants et intégration des enseignements tirés dans les pratiques opérationnelles. Évaluation des fournisseurs de technologies, analyse comparative des solutions et recommandation d'outils et de plateformes adaptés. Évaluation des techniques de traitement de documents (OCR, NLP, VLM), de la gestion des métadonnées, des ontologies et des solutions de bases de données vectorielles. Accompagnement des initiatives de transformation liées à l'utilisation des données à des fins d'IA et d'analyse. 3. Prestations de service: Un cadre méthodologique complet pour la gestion des données non structurées. Des normes, politiques et règles documentées pour la qualité des données, les métadonnées et l'architecture des données. Des rapports sur les projets pilotes, incluant les enseignements tirés et les meilleures pratiques. Des rapports d'évaluation des fournisseurs et des analyses comparatives. Une documentation technique sur les techniques de traitement de documents et les méthodes de transformation des données. Des recommandations concernant les outils, les plateformes et les plans de mise en œuvre alignés sur les besoins opérationnels.
Freelance
CDI

Offre d'emploi
Consultant Data Governance – Asset Management (H/F)

Deodis
Publiée le
Data governance

1 an
40k-60k €
580-700 €
Île-de-France, France
Dans le cadre d’un programme de transformation data au sein d’un environnement exigeant, nous recherchons un Consultant Data Governance pour intervenir sur des problématiques de gouvernance, qualité et traçabilité des données. La mission s’inscrit dans un contexte de migration et d’intégration de systèmes , nécessitant une forte coordination entre les équipes métier et IT. Recueillir et formaliser les besoins métier liés aux données Animer des ateliers avec les équipes métier et IT Mettre en place et maintenir la traçabilité des données (data lineage, mapping des flux) Concevoir et documenter les flux de données de bout en bout Définir et piloter la roadmap de livraison des cas d’usage data Identifier les dépendances, risques et contraintes de livraison Participer aux ateliers de conception fonctionnelle et technique Gérer et suivre le backlog data Mettre en œuvre les bonnes pratiques de gouvernance et de qualité des données Produire la documentation (dictionnaires de données, processus, reporting, KPIs) Assurer le suivi des risques et des plans d’actions Contribuer à la conduite du changement et à l’adoption des standards data
Freelance

Mission freelance
Senior Data Analyst Power BI

ARGANA CONSULTING CORP LLP
Publiée le
Amazon Redshift
API REST
AWS Cloud

12 mois
350-400 €
Paris, France
Nous recherchons un Senior Data Analysr Power BI . La mission implique la conception, le développement et la mise en œuvre de solutions analytiques avancées pour répondre aux besoins des métiers. 🎯 Missions principales Accompagner les utilisateurs dans la définition et la formalisation des besoins et des enjeux de restitution et de datavisualisation. Animer des ateliers de type “Design” pour clarifier les besoins et proposer des solutions adaptées. Participer aux travaux de cadrage SI , études d’opportunité et de faisabilité. Recueillir et rédiger les expressions de besoins et spécifications fonctionnelles de solutions analytiques, et valider les livrables. Concevoir et réaliser les restaurations Power BI : rapports, indicateurs et tableaux de bord. Participer à la documentation des règles de sécurité des données et des applications. Élaborer les manuels utilisateurs et les supports de formation aux applications de datavisualisation. Rédiger les spécifications techniques et cahiers des charges pour les POC ou déploiements. Préconiser les adaptations et améliorations des processus existants . 📊 Livrables Développement et déploiement des cas d’usage (cartographies, tableaux de bord, data quality, alimentation du DatalakeHouse…). Documentation des règles de calcul et d’agrégation pour les indicateurs. Rédaction de plans de tests, cahiers de recette et supports utilisateurs . Production et mise à disposition des tableaux de bord . 🛠️ Environnement technique Power BI (Desktop et Service) Databricks, Nifi, RedShift Power Automate, Power Platform Cloud AWS Smart Data, API REST
CDD
CDI

Offre d'emploi
Lead Dev Data Streaming

OCTOGONE
Publiée le
Apache Kafka

6 mois
Grenoble, Auvergne-Rhône-Alpes
Vous intervenez en tant que référent technique et pilote d’une équipe d’environ 5 développeurs sur une plateforme de data streaming dédiée à la collecte et au traitement de données énergétiques issues d’équipements terrain (capteurs IoT, automates, systèmes de gestion technique de bâtiments). L’objectif de la plateforme est de permettre le pilotage intelligent de systèmes de chauffage et de climatisation, en exploitant des flux de données en temps réel afin d’optimiser la consommation énergétique tout en garantissant le confort des occupants. Le contexte présente des enjeux très forts de volumétrie et de passage à l’échelle : ingestion massive de données issues de centaines de milliers d’équipements, gestion de flux continus à haute fréquence, et nécessité de garantir des traitements fiables et performants en conditions de charge. Vous évoluez ainsi sur des problématiques techniques exigeantes : partitionnement Kafka, gestion du throughput, optimisation de la latence, tolérance aux pannes, reprise sur incident, cohérence des données et supervision de pipelines critiques.
Freelance

Mission freelance
Ingénieur système & Azure

Tenth Revolution Group
Publiée le
Active Directory
Azure

6 mois
400-650 €
Aix-en-Provence, Provence-Alpes-Côte d'Azur
Je recherche un profil d'ingénieur systèmes & cloud Senior (Azure) sur Aix-en-Provence : - Systèmes d'exploitation : Windows 10/11, Windows Server 2012/2016/2019 et éventuellement Linux. - Virtualisation: Microsoft Hyper-V - Automatisation et Scripting: PowerShell. - Environnement Cloud : Azure, Office & Exchange 365, Active Directory & Entra ID, SharePoint, InTune, Microsoft Defender, Dynamics 365, téléphonie OVH. - Technologies : Fortinet, Aruba, Veeam Backup, Synology Intervention au sein d'une équipe composé du responsable et de 2 administrateurs systèmes
CDI

Offre d'emploi
Data analyst H/F

Proxiad
Publiée le
Data analysis
Python
SQL

47k-65k €
Île-de-France, France
🎯 Objectifs principaux Recueillir et formaliser les besoins métiers liés aux données de référence Analyser les données existantes et proposer des modèles de données adaptés et réutilisables Contribuer à la création et à l’évolution des datasets stratégiques Garantir la qualité, la cohérence et la gouvernance des données Faciliter l’exposition et la consommation des données (API, Data Platform) Participer aux programmes de transformation et de migration 🛠️ Responsabilités clés Rédaction de user stories et critères d’acceptation Analyse fonctionnelle et data (y compris cas complexes) Modélisation des données (référentiels / MDM) Contribution aux analyses ad hoc Support aux équipes techniques (ingénieurs data) Participation à la gouvernance des données (qualité, métadonnées, catalogage) Rédaction de documentation et accompagnement à la mise en production À distance – maximum 3 jours par semaine Le consultant travaillera sur l'ordinateur portable et le système du client.
CDI

Offre d'emploi
Ingénieur Data Integration Stambia / Semarchy xDI H/F

DAVRICOURT
Publiée le
Intégration
Semarchy
Stambia

30k-35k €
Villeneuve-d'Ascq, Hauts-de-France
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Développeur(se) Data Integration Stambia / Semarchy xDI pour l'un de nos clients du secteur de la grande distribution. Vous interviendrez sur le site client situé à proximité de Villeneuve-d'Ascq (59). À ce titre, vos missions quotidiennes seront les suivantes : - Recueillir et analyser les besoins métiers en collaboration avec le Product Owner et les parties prenantes ; - Concevoir et développer des flux d'intégration complexes sous Stambia / Semarchy xDI, en produisant des scripts complémentaires (Python, Beanshell, Shell) ; - Réaliser les tests de performance, de robustesse et de non-régression, et assurer la documentation technique des développements ; - Assurer le suivi de production, le monitoring, le support ainsi que les astreintes et la maintenance corrective et évolutive.
Freelance
CDI

Offre d'emploi
Data Engineer IA

Craftman data
Publiée le
DevOps
Docker
Github

6 mois
40k-45k €
390-540 €
Île-de-France, France
Maintien en condition opérationnelle et industrialisation du Portail Multi‑IA Générative dans un contexte multi‑environnements (On‑Premise, GCP, cloud de confiance à venir). Mise en œuvre et optimisation des chaînes CI/CD (GitLab), de l’Infrastructure as Code (Terraform) et de l’automatisation des déploiements. Contribution à la sécurité, conformité et observabilité des usages IA générative (IAM, secrets, logs, metrics, traces, FinOps). Mise en place et exploitation des pratiques LLMOps : observabilité LLM, évaluations continues (qualité, sécurité, coûts), guardrails et HITL. Conception et préparation de la V2 du Portail IA (architecture cible, HLD/LLD, migration). Support technique N2/N3, analyse et résolution d’incidents, assistance aux mises en production. Production de la documentation technique (runbooks, playbooks, architectures) et transfert de compétences vers les équipes internes.
Freelance

Mission freelance
Data Platform Engineer - Metadata

CAT-AMANIA
Publiée le
Databricks
FastAPI
Github

1 an
100-450 €
Lille, Hauts-de-France
Organisée autour des outils de stockage et de catalogage, l'équipe Datalake est chargée de mettre à disposition le stockage (S3) pour l'ensemble de la data platform et de garantir robustesse et scalabilité. L'équipe Datalake assure la gouvernance technique du patrimoine de donnée et la gestion des métadonnées au travers des data contract. Nous hébergeons et maintenons le repository central de ces derniers. Nous permettons grâce à cela de construire une observabilité de plateforme au travers de l’usage, du lineage etc. Nous avons le besoin de sensibiliser les utilisateurs aux bonnes pratiques que l'équipe met en place sur une modern data stack. Ceci afin d'accompagner au mieux le développement des use cases métiers sur la plateforme. Une appétence data et avoir déjà manipulé des outils tels que databricks est un réel plus. Ta mission sera de Garantir la robustesse du data contract registry (Aurora + Python fastAPI) Monitorer et prendre des actions proactives de management Assurer le support et l'accompagnement tournant sur les outils de l'équipe (S3, Glue, Unity Catalog, data contract registry) Restituer dans le datalake les metadonnées de nos produits Accompagner et former Définir et promouvoir les bonnes pratiques proposées au sein de l'équipe Participer et conseiller lors de la conception des pipelines de données des équipes Développer le futur Gouvernance automatisée (Data contract registry, access management, metadata management) Etroite collaboration avec les staff engineer de la plateforme pour le développement de nouvelle features (ADR)
CDI

Offre d'emploi
Expert Data / IA – Prévision des ventes H/F

DAVRICOURT
Publiée le
Intelligence artificielle

50k-55k €
Arras, Hauts-de-France
Dans le cadre de la réalisation d'un projet en assistance technique, nous recherchons un(e) Expert Data / IA – Prévision des ventes pour l'un de nos clients. Vous interviendrez sur un projet stratégique sur site à proximité d'Arras ou en full remote. À ce titre, vos missions quotidiennes seront les suivantes : - Analyser les mécanismes actuels de prévision des ventes et les sources de données existantes ; - Évaluer la qualité, la structure et la fiabilité des données (ERP, historiques, tables métiers) ; - Identifier les variables clés influençant les ventes (saisonnalité, contraintes logistiques, etc.) ; - Concevoir et développer des modèles de prévision (statistiques et machine learning) ; - Tester, comparer et optimiser les modèles en fonction des spécificités métiers ; - Industrialiser les modèles (automatisation, intégration SI, pipelines data) ; - Structurer les flux de données et garantir la robustesse des solutions ; - Mettre à disposition des outils de restitution et faciliter leur adoption par les équipes métiers ; - Accompagner les équipes et proposer des axes d'amélioration à fort impact business.
5022 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2026 © Free-Work / AGSI SAS
Suivez-nous