Trouvez votre prochaine mission ou futur job IT.

Votre recherche renvoie 5 514 résultats.
Offre premium
CDI

Offre d'emploi
Ingénieur DATA / DEVOPS (F/H)

Publiée le
AWS Cloud
Data analysis
DevOps

Nice, Provence-Alpes-Côte d'Azur
Télétravail partiel
Mission sur SOPHIA ANTIPOLIS 4 jours de présentiels (préférable d'habiter la région Alpes maritimes) En vue d'embauche en CDI Notre client, une start-up dans l'énergie, recherche un tech lead pour accompagner les équipes dans le développement de leur solution de prévision météo. Mission principale : Assurer le pilotage technique et la mise en production des solutions de prévision solaire développées, en garantissant la robustesse, la scalabilité et la fiabilité de l’infrastructure data et logicielle. Responsabilités clés : Data Engineering : maintenir et optimiser les pipelines de données (météo, satellite, capteurs PV) pour les modèles de prévision. Infrastructure & DevOps : Déploiement et gestion des environnements cloud (AWS). Mise en place et maintenance de l’Infrastructure as Code (Terraform). Automatisation et optimisation des déploiements via CI/CD (GitHub Actions). Orchestration des tâches : concevoir, monitorer et optimiser les workflows de données et de calcul via Dagster. Opérations métiers : garantir la bonne exécution des codes de prévision (algorithmes, modèles, calculs intensifs) en production. Onboarding & Process : structurer et gérer les procédures d’onboarding technique des nouveaux clients et des PoCs. Qualité & Sécurité : veiller à la résilience, à la sécurité et à la performance des systèmes déployés. Compétences attendues : Solide expérience en Data Engineering et/ou DevOps. Maîtrise de AWS et des outils Terraform. Connaissance des bonnes pratiques CI/CD et expérience avec GitHub Actions. Expérience en orchestration de workflows de données (idéalement Dagster, sinon Airflow ou équivalent). Compétences en scripting (Python, Bash) et monitoring. Capacité à travailler dans un environnement agile, en lien avec des data scientists et des équipes projet. Esprit de structuration et sens des responsabilités pour accompagner la croissance d’une scale-up deeptech.
CDI

Offre d'emploi
Data Engineer H/F

Publiée le
Big Data
Data Lake
Spark Streaming

Île-de-France, France
Télétravail partiel
Le Data Engineer est un développeur au sein de l’équipe Engineering Open Big Data du Département Data, qui regroupe l’ensemble des expertises technologiques liées à l’ingénierie de la donnée, de l’automatisation et à l’exploitation des modèles de Machine Learning. Ce déparetement est dédié au service de notre client et de ses équipes (Data office, Tribus data, Business, Transformation Office etc.), afin de fournir, en collaboration avec le Data Office, les plateformes (RPA, BI, Data, …) et les données nécessaires aux équipes chargées de délivrer les cas d’usages, puis les déployer et les maintenir en conditions opérationnelles.
CDI

Offre d'emploi
Data Architect - SI Energie H/F

Publiée le

50k-60k €
France
Télétravail partiel
Contexte de la mission : Dans le cadre d'un programme de transformation Data d'envergure, notre client souhaite renforcer son équipe Data avec un Data Architect expérimenté. La mission s'inscrit au sein d'un environnement regroupant des équipes de transformation, d'ingénierie et de développement, avec un fort niveau d'interaction entre les directions métiers et les équipes techniques. Le consultant interviendra dans un contexte structuré autour d'une plateforme Data moderne (Data Lake, Data Warehouse, services de traitement & de gouvernance), et contribuera activement à la définition, l'évolution et la cohérence de l'architecture Data globale. Responsabilités : Cadrer, concevoir et sécuriser l'ensemble de la chaîne de valeur Data ; Garantir la cohérence, la performance et la qualité des modèles et flux de données ; Etre garant des bonnes pratiques d'architecture ; Participer aux choix technologiques et contribuera à la roadmap des services Data ; Assurer la promotion des services Data ; Participer à la cartographie et à la gouvernance des usages.
Freelance
CDI

Offre d'emploi
Ingénieur DevOps IA

Publiée le
Linux
Python

1 an
40k-45k €
330-500 €
Île-de-France, France
Télétravail partiel
Descriptif du poste Au cœur du AI Innovation Lab d'un groupe bancaire international multi‑entités, vous aurez pour mission de concevoir, déployer et expérimenter des Proof‑of‑Concept (POC) innovants autour des agents autonomes et des modèles de langage (LLM) appliqués aux jeux de données d'infrastructures IT. L'objectif : fournir des aides intelligentes à la production, faciliter la supervision, l'automatisation et la résolution proactive d'incidents. Le poste s'inscrit dans une démarche agile, collaborative et orientée industrialisation à terme. Missions principales Concevoir et gérer des environnements d'expérimentation Kubernetes/Docker avec intégration CI/CD (Jenkins, GitLab CI/CD, ArgoCD). Automatiser la collecte, la pré‑traitance et l'exploitation des datasets d'infrastructure (logs, CMDB, monitoring) pour entraîner et alimenter des agents basés sur LLM. Développer et intégrer les pipelines de déploiement d'agents IA en collaboration avec les data‑scientists et ingénieurs IA (utilisation de LangChain, AutoGen ou équivalents). Implémenter des scripts et outils en Python, Bash, Go pour l'automatisation des tâches infra, l'orchestration et le monitoring. Garantir la sécurité du développement et des déploiements dans un environnement réglementé : DevSecOps, outils SAST/DAST, gestion des accès, conformité RGPD. Produire la documentation technique des POC, rédiger les spécifications d'industrialisation pour les équipes produit. Assurer une veille technologique continue sur les évolutions des architectures agentiques, LLM et de l'automatisation infra. Compétences techniques clés - Systèmes d'exploitation : maîtrise avancée de Linux/Unix et des concepts réseaux (TCP/IP, HTTP, DNS, VPN). Cloud & IaC : AWS, Azure, GCP – Terraform, Pulumi, CloudFormation. Conteneurisation & orchestration : Docker, Kubernetes, Helm. CI/CD : Jenkins, GitLab CI, ArgoCD. Automation configuration : Ansible, Puppet, Chef. Langages : Python (expert), Bash, Go (appréciés). Monitoring & logging : Prometheus, Grafana, ELK Stack.
CDI

Offre d'emploi
Responsable de Domaine Data/BI

Publiée le
Data Warehouse
ETL (Extract-transform-load)
PowerBI

90k-100k €
Antony, Île-de-France
Télétravail partiel
📌 Responsable de Domaine Data / BI (H/F) 🎯 Contexte & Enjeux du Poste Dans le cadre d’une évolution organisationnelle et du redimensionnement d’un poste stratégique, notre groupe renforce son Département Études et recrute son Responsable de Domaine Data / BI. Ce rôle clé intervient au moment où l’entreprise engage une refonte complète du SI décisionnel, une modernisation de son architecture data, et une professionnalisation de sa gouvernance de la donnée. Le poste combine vision stratégique, pilotage technique, management d’équipe (5 à 10 personnes, internes et prestataires) et accompagnement des métiers. 📝 Missions principales 1. Définition & Pilotage de la Stratégie Data Construire et suivre la feuille de route Data/BI du groupe (stratégie, priorités, trajectoires, budgets). Contribuer au ciblage de l’architecture Data et aux choix technologiques clés. Conduire la refonte du SI décisionnel et la modernisation des outils associés. 2. Gouvernance & Qualité de la Donnée Définir et appliquer les standards de qualité, sécurité, conformité et intégrité de la donnée. Superviser l’ensemble des flux, entrepôts, modèles et indicateurs clés. Garantir la fiabilité, performance et disponibilité des plateformes data. 3. Management & Structuration de l’Équipe Encadrer une équipe de 5 à 10 collaborateurs (internes + prestataires). Définir l’organisation, les responsabilités, les objectifs et les rituels d’équipe. Monter en compétence les équipes : méthodologie, bonnes pratiques, culture data. 4. Supervision Technique & Opérationnelle Piloter l’ensemble du périmètre technique BI & Data : Systèmes : SAP BW, SAP BO, Power BI, Snowflake Outils & technologies : ETL / Talend, SQL, modèles de données Garantir la maintenance, les évolutions, les déploiements et le bon fonctionnement des plateformes. Valider les solutions : ETL, dashboards, reporting, modèles de données, intégration, architecture. 5. Relation Métiers & Accompagnement Être l’interlocuteur privilégié des métiers (commerce, logistique, finance, opérations…). Recueillir, challenger et prioriser les besoins en intelligence décisionnelle. Accompagner les équipes dans l’usage des outils, la compréhension des indicateurs et la diffusion de la culture data. Collaborer étroitement avec la MOA et les chefs de projet SI
Freelance

Mission freelance
POT8833 - Un Data Analyste Confirmé sur Mer

Publiée le
Java

6 mois
280-400 €
Mer, Centre-Val de Loire
Télétravail partiel
Almatek recherche pour l'un de ses clients Un Data Analyste Confirmé sur Mer. **Contexte :** Le service Modélisation des Données recrute un Data Analyst pour soutenir ses projets et la maintenance liés à la restitution et à l’analyse de données. Ce service gère le Système d'Information Décisionnel, qui repose sur un Datawarehouse alimenté par des traitements ETL et des chaînes Change Data Capture (IBM IDR, Kafka). Ce Datawarehouse est la source de données pour divers outils de reporting et de datavisualisation (Power BI, COGNOS) ainsi que pour la mise en œuvre de cas d’usage IA. **Missions principales :** Le prestataire agira sous la direction du responsable du service Modélisation des Données et ses missions incluront : - Projets de SI Décisionnels : Modélisation de données, conception de rapports, et assistance aux utilisateurs finaux. - Power BI : Point de contact technique pour les utilisateurs finaux et les Publishers de Power BI, réalisation de reportings complexes. - Migration de Dataplatform : Refonte de reporting COGNOS/Power BI vers Superset, refonte de chaînes ETL TALEND vers Dagster, et conception de datamarts. Projet en agilité. Le poste comporte une dimension technique importante ainsi qu’une forte composante relationnelle, nécessitant une analyse des besoins, leur validation, et le suivi en mode projet. Une sensibilité aux problématiques de gouvernance des données est également cruciale. **Compétences requises :** - Organisationnelles : - Suivi de projet en tant que contributeur MOE. - Collaboration avec des équipes sécurité/réseau/etc. - Techniques : - Maîtrise du SQL, de l’indexation et de l’optimisation SQL (4 ans d’expérience minimum). - Power BI Desktop, Power BI Report Server, DAX, RLS (2 ans d’expérience minimum). - Modélisation de données et constitution de datamarts (4 ans d’expérience minimum). - Apache Superset (1 an d’expérience souhaitée). - COGNOS C11 (1 an d’expérience minimum). - Développement Python (2 ans d’expérience minimum). - Connaissance des ETL (SSRS, Talend). - Connaissance de Java. - Savoir-être : - Capacité d’analyse : Comprendre et formuler un besoin, animer des ateliers, et identifier les impacts pour déterminer la meilleure solution. - Excellente capacité rédactionnelle. - Expérience en agilité (Kanban, Scrum). **Connaissances métier :** Une connaissance du monde des Titres et une expérience significative dans le secteur bancaire seraient des atouts supplémentaires, mais ne sont pas obligatoires. Localisation : Mer (proche d'Orleans) + Télétravail
Freelance

Mission freelance
Ingénieur MLOps Data & IA

Publiée le
Amazon S3
Apache Airflow
Apache Spark

12 mois
500-550 €
Île-de-France, France
Télétravail partiel
Contexte Le profil interviendra sur l’ensemble du cycle de vie des solutions d’Intelligence Artificielle (IA), incluant : Industrialisation et CI/CD : Mise en place et maintenance de pipelines CI/CD (GitLab, Docker, Terraform, Kubernetes). Infrastructure et automatisation : Gestion et optimisation des environnements AWS (S3, EMR, SageMaker, IAM…). Data Engineering & Spark : Développement et optimisation de jobs Spark pour la préparation et le traitement de données à grande échelle. MLOps / Production : Déploiement, suivi et supervision des modèles IA (MLflow, , monitoring Datadog). Collaboration transverse : Interaction quotidienne avec les Data Scientists pour fiabiliser le delivery et le suivi des modèles. Veille et amélioration continue : Participation active à l’optimisation des pipelines et à la montée en maturité technique de l’équipe. Description de la mission Le profil sera en charge de : Maintenir et faire évoluer les pipelines d’industrialisation (CI/CD, Terraform, Docker, Kubernetes). Participer à la mise en production et au suivi des modèles IA (Airflow, Datadog, , MLflow). Garantir la fiabilité des traitements Spark et la conformité des environnements AWS. Contribuer au suivi de la production et aux mises en production (MCO). Participer à l’amélioration continue des outils et pratiques Data/IA. Documenter les bonnes pratiques techniques et partager les retours d’expérience au sein de l’équipe AI Experts. Compétences techniques attendues Obligatoires (Must Have) : CI/CD (GitLab) Docker Terraform Kubernetes Spark Python AWS (S3, EMR, SageMaker, IAM…) Souhaitables (Nice to Have) : MLflow Airflow API / FastAPI Datadog Suivi de production / MEP Autres compétences : Expérience de collaboration avec des Data Scientists Veille technologique et amélioration continue Soft Skills recherchés Esprit d’équipe et forte culture du delivery Rigueur technique, curiosité et autonomie Capacité à collaborer efficacement dans un environnement pluridisciplinaire (DE, DS, OPS, PO, DEV, staff) Sens du partage et de la documentation Livrables et responsabilités principales Maintenir et faire évoluer les pipelines CI/CD et d’industrialisation Participer aux mises en production et au suivi des modèles IA Garantir la fiabilité des traitements Spark et la conformité AWS Contribuer à l’optimisation continue des outils et pratiques Documenter et partager les bonnes pratiques techniques
Freelance

Mission freelance
Data Scientist Sénior

Publiée le
Data science
Python
Rédaction technique

18 mois
150-450 €
Paris, France
Télétravail partiel
Contexte : Experience : 5 ans et plus Métiers Fonctions : Data Management, Data Scientist Spécialités technologiques : APIs, Simulation, Optimisation linéaire, Devops MISSIONS Dans le cadre du renforcement d’une équipe dédiée à la modélisation mathématique, le client recherche un Data Scientist Senior (>5 ans d’expérience) pour intervenir sur un ensemble de sujets variés : optimisation, simulation, analyse de performance, développement de modèles et d’outils applicatifs. La prestation s’inscrit dans un environnement comprenant plusieurs applications et modèles, et non un produit unique, nécessitant une forte capacité d’adaptation et une compréhension technique rapide. Le consultant interviendra en tant que référent senior, encadrant un Data Scientist junior et garantissant la qualité méthodologique et scientifique des travaux. Livrables attendus : - Validation des algorithmes d’optimisation. - Approbation des tableaux de bord et outils d’aide à la décision. - Revue critique des recommandations stratégiques. - Validation des rapports d’analyse et des indicateurs de performance. - Documentation des standards de qualité appliqués. Missions détaillées: 1. Encadrement & supervision méthodologique - Accompagnement d’un Data Scientist junior. - Définition des standards méthodologiques, bonnes pratiques et règles de modélisation. - Validation des approches algorithmiques et statistiques. - Orientation des travaux et identification des risques techniques. - Garantie de la cohérence globale des modèles par rapport aux objectifs du programme. 2. Développement & modélisation - Développement Python. - Création d’APIs. - Intégration de modèles. - Manipulation des équations et formalismes mathématiques. Utilisation de la librairie HiGHS (optimisation mathématique) pour : - Gestion des contraintes. - Calculs d’optimisations. - Résolution de modèles linéaires / mixtes. - Capacité à comprendre et implémenter les modèles algorithmiques, pas seulement à les consommer. 3. Contrôle qualité & validation scientifique - Revue de code, audit d’architecture et bonnes pratiques Python. - Vérification de la qualité et de la cohérence des données utilisées. - Validation de la robustesse des modèles prédictifs, d’optimisation ou de simulation. - Challenge technique des résultats, scénarios et hypothèses. - Approbation finale des livrables avant diffusion. 4. Expertise & conseil : - Intervention en tant qu’expert sur les sujets complexes de modélisation. - Recommandations méthodologiques et proposition d’améliorations. - Veille technologique et scientifique sur l’optimisation, les modèles mathématiques et les outils Python. - Capitalisation des bonnes pratiques pour l’équipe. 5. Communication & coordination : - Présentation des validations et recommandations aux parties prenantes. - Interface entre les équipes techniques et la direction projet. - Participation aux comités et instances de pilotage. - Documentation des critères de qualité et des processus de validation. - Contribution à la montée en compétences du Data Scientist junior. Compétences requises : - Expertise en Python : développement d’APIs, structuration de librairies, manipulation d’équations. - Maîtrise de HiGHS ou autre solveur d’optimisation linéaire/quadratique. - Solide bagage scientifique : mathématiques, physique, modélisation, statistiques. - Capacité à travailler sur plusieurs modèles simultanément. - Très bonne communication orale et écrite. - Autonomie forte et posture de référent. Compétences appréciées : - Expérience sur des modèles mathématiques à grande échelle. - Aisance en revue méthodologique et en cadrage scientifique. - Aucun besoin de connaissance fonctionnelle métier spécifique. Expertise souhaitée Data Scientist Senior (>5 ans d’expérience)
CDI

Offre d'emploi
CDI - DevOps Senior pour projets IA (Google Cloud) (H/F)

Publiée le
DevOps
Elasticsearch
Gitlab

75015, Paris, Île-de-France
Télétravail partiel
Secteur Télécommunications - contrat CDI Contexte de la mission Dans un environnement orienté transformation, innovation et industrialisation des usages Data & IA, une direction informatique recherche un expert DevOps pour structurer, fiabiliser et industrialiser la chaîne de développement, de tests et d’observabilité d’une plateforme IA hébergée sur Google Cloud Platform. L’objectif 2026 : accélérer la production et l’intégration des produits d’intelligence artificielle au sein des processus métiers grâce à un outillage DevOps robuste, cohérent et exigeant. Objet de la prestation La mission couvre 4 volets majeurs , en étroite collaboration avec les équipes de développement et de pilotage de projets. 1. DevOps Réaliser un état des lieux complet de la chaîne DevOps et produire sa documentation. Proposer une cible d’architecture et de processus répondant aux enjeux d'automatisation, de qualité et de conformité au cadre Valentine Cloud. Contribuer à la mise en œuvre de la cible. Piloter et animer les travaux nécessaires pour atteindre cette cible. 2. Monitoring & Troubleshooting Proposer une architecture d’observabilité et les outils associés. Mettre en œuvre l’architecture et coordonner les contributions techniques. Former et accompagner développeurs, testeurs et chefs de projet à l’usage des outils d’observabilité. 3. Pilotage de l’activité Participer à la mise en place des dispositifs de suivi et de pilotage. Structurer un reporting clair et régulier. 4. Contribution à l’outillage « suivi d’activités » Participer aux ateliers, proposer des solutions et réaliser les actions DevOps nécessaires. Livrables attendus Documentation et proposition de cible DevOps (sous 4 semaines). Recommandations sur les outils de tests auto, qualité de code et pipeline. Plan de déploiement monitoring & dataviz (T1 2026). Contributions aux outils de pilotage (T1 2026). Compétences recherchées Indispensables : Expertise DevOps GitLab Elastic / Observabilité Atouts appréciés : Expérience IA sur Google Cloud Connaissance de l’écosystème Valentine Cloud
CDI

Offre d'emploi
Architecte Data spécialisé Databricks (F/H)

Publiée le

80k-90k €
Paris, France
Télétravail partiel
Data Architect spécialisé Databricks (F/H) - CDI - Paris 12 - 80-90K€ Contexte Vous rejoindrez la Data Factory , une structure d'excellence au sein du département "Fabrique Digitale" de notre client. Cette équipe accompagne des projets complexes de transformation data en rassemblant l'ensemble des compétences nécessaires : BI, Big Data, Data Analytics, Dataviz et Data Science. La Data Factory adresse des enjeux stratégiques majeurs : construction de référentiels de données, datawarehouses opérationnels, outillages de simulation et prévisions, datalakes, algorithmes prédictifs et tableaux de bord décisionnels. Vous piloterez le déploiement de la plateforme data groupe qui repose sur des concepts architecturaux innovants dont la notion de Data Mesh et des offres de self-service métier. De nouveaux concepts architecturaux structurent la plateforme. Votre expertise sera mobilisée pour : Fournir une expertise d' Architecte Solution orientée usages métiers, avec une connaissance approfondie des projets data en cloud public Servir de référent technique auprès des squads métiers en mode Agile pendant les phases de build et transition vers le run Challenger les besoins et imposer les bonnes pratiques du cadre de cohérence technique Assurer un relationnel excellent avec les équipes projets et les métiers Vous cumulerez les responsabilités d'un architecte opérationnel et d'un super-tech-lead, avec une implication quotidienne auprès des équipes de développement. Missions : Pilotage technique et accompagnement des projets Fournir l'expertise technique plateforme aux squads projets, du cadrage jusqu'à la mise en service Représenter la plateforme data groupe lors des cérémonies Agile (Go/NoGo, réunions stratégiques) Assister les tech leads dans leurs choix architecturaux et la rédaction des DAT (Document d'Architecture Technique) Identifier et évaluer les risques techniques (fonctionnalités manquantes, impacts planning Onboarding et accompagnement des équipes Réaliser l'onboarding des squads projets pour l'architecture plateforme et les bonnes pratiques Assister aux entretiens de recrutement des tech leads et développeurs métier Coacher les équipes pour optimiser les solutions et mettre en place des méthodologies de monitoring Sensibiliser à la gouvernance des données, en particulier données sensibles et données à caractère personnel Supervision et coordination Superviser les interventions des Data Ingénieurs plateforme (ingestion, exposition de données) Coordonner avec les leads de pratique (Data Management, Dataviz, ML Ingénieur) S'assurer de la validation architecturale de bout en bout avec les autres SI Participer aux phases de VSR (Verification & Service Readiness) Support et exploitation Contribuer au MCO (Maintien en Condition Opérationnelle) en tant que support N3 Participer à la résolution d'incidents en production Réaliser les actes de restauration du service Conduire l'analyse des root causes des dysfonctionnements Documentation et qualité Vérifier la complétude des contrats d'interface fournis par les squads projets Garantir la qualité technique et documentaire des livrables Contribuer à l'amélioration des briques socle et leur cadrage technique Contributions transversales Apporter votre expertise de data engineer et d'architecte opérationnel à la Data Factory Contribuer à des PoC et études ciblées Participer aux cérémonies Scrum Agile Réaliser des démos et présentations auprès des clients Livrables attendus Développements et scripts demandés Documents de cadrage, DAT et rapports d'avancement Macro estimations budgétaires et offres de solution technique Analyses de risques techniques et audits de faisabilité Cahiers de tests et procédures d'installation en production Documents de paramétrage et procédures de maintenance Rapport de fin de mission détaillant la démarche, développements réalisés, difficultés et solutions apportées
CDI

Offre d'emploi
Data Engineer H/F

Publiée le

30k-50k €
Strasbourg, Grand Est
Télétravail partiel
Notre client, société financière, recherche un Data Engineer pour rejoindre sa Data Factory. Responsabilités : Au sein d'une équipe dynamique, vous interviendrez sur l'ensemble des étapes des projets décisionnels : - Recueil et analyse des besoins (échanges avec la MOA et les utilisateurs) ; - Rédaction de spécifications fonctionnelles et techniques ; - Modélisatnique ; - Mise en production et suivi.
Freelance

Mission freelance
Lead Analytics & Data

Publiée le
CSS
HTML
IA Générative

1 an
400-410 €
Clermont-Ferrand, Auvergne-Rhône-Alpes
Télétravail partiel
Expertise GA4 et Google Tag Manager (plans de taggage, implémentation, recette, monitoring) • Analyse de la performance digitale (sites B2C, B2B, multi-marques) • Création et exploitation de dashboards PowerBI & Looker Studio • Analyses de performance ad-hoc et reporting business • Pilotage d’outils analytics tiers (ThankYou Analytics) • Coordination et intégration des tags média A/B Testing & CRO • Conception, déploiement et pilotage de roadmaps d’A/B tests • Création de tests et personnalisations via : o Éditeur WYSIWYG o JavaScript / CSS o Prompts IA • Analyse statistique, interprétation et restitution des résultats • Mise en place de modèles de suivi et de restitution des tests • Administration avancée d’outils Kameleoon / A/B Tasty • Optimisation des performances techniques et nettoyage régulier des outils CRO UX & User Intelligence • Analyse comportementale via Mouseflow / ContentSquare • Collaboration étroite avec équipes UX, SEO, Produit et CRO • Capacité à transformer les insights data en recommandations actionnables Tech & IA • Bon niveau HTML / CSS / JavaScript • Utilisation d’outils IA générative et rédaction de prompts • Intégration et interfaçage d’outils analytics avec des solutions tierces Gestion & Collaboration • Recueil et cadrage des besoins business • Coordination transverse (produit, design, tech, agences) • Capacité à accompagner et former les équipes • Forte pédagogie et sens de la communication
Freelance

Mission freelance
Expert DATA IA Sénior (SAS, Powershell, Batch, Shell) minimum de 7 ans d’exp/fa

Publiée le
IA
SAS

12 mois
Paris, France
Télétravail partiel
Expert DATA IA Sénior (SAS, Powershell, Batch, Shell) minimum de 7 ans d’exp/ Expert DATA IA Sénior avec un minimum de 7 ans d’expériences sur des projets similaires. Programmation SAS niveau avancé Scripting : Powershell, Batch, Shell Connaissance de méthodologies de parsing Communications, bon relationnel Organisation et rigueur Sens du travail en équipe Autonomie Localisation Paris 12e/ Télétravail Durée de la mission : 2 ans Projet : Dans le cadre des projets transformants sous l'angle d'Agent IA supra, recherche à se renforcer pour piloter/cadrer certains travaux prioritaires avec un forte dominante Marketing. Ce travail nécessite une forte autonomie et une capacité à coordonner des acteurs multiples tout en arrivant à un consensus stratégique et technique. Le candidat devra pouvoir s'appuyer sur son expertise ainsi que celle de son cabinet sur la vertical Data IA : Benchmark, bonnes pratiques sur les besoins en Data pour une IA, modèles IA (création/réutilisation, entrainement, évaluation métier, finops et projection, contraintes bancaires et cyber sur l'IA, interconnexions de produits IA majeurs pour structurer les bons travaux à lancer en priorité pour des livraisons fréquentes et cohérentes)... Avant fin 2025, l'ensemble du chantier doit être pré-cadré (toutes les réunions organisées et cordonnées ; notes de réunions à envoyer le jour J/J+1 et livrables de cadrage complets à fournir) avec une feuille de route à plusieurs niveaux sur 2026 tout en préparant si besoin en 2025 des travaux nécessaires à la bonne tenue des jalons temporels de 2026. Principaux livrables : Construire la feuille de route du stream Data IA avant fin 2025 pour certains projets transformants notamment dans la thématique Marketing en collaboration avec les bon acteurs. Compétences requises : Programmation SAS niveau avancé Scripting : Powershell, Batch, Shell Connaissance de méthodologies de parsing Communications, bon relationnel Organisation et rigueur Sens du travail en équipe Autonomie
CDI

Offre d'emploi
Architecte Expérimenté (Infra, Cloud, DevOps, Digital ou Data) H/F

Publiée le

75k-85k €
Lyon, Auvergne-Rhône-Alpes
Télétravail partiel
Nous recherchons un(e) Architecte Expérimenté(e), passionné(e) par la technologie, pour travailler soit en interne, en collaborant de manière transversale sur divers projets passionnants, soit directement chez nos clients, en étant au cœur de leurs défis numériques. Si vous souhaitez participer à des projets d'envergure, continuer à apprendre et évoluer dans votre carrière, c'est l'occasion rêvée ! Vous aurez la charge de : • Concevoir, modéliser et évaluer la charge d'implémentation des architectures sécurisées, évolutives, fiables et performantes dans les domaines de la Data et/ou du Digital en situation projet et avant-vente • Réaliser des études comparatives de solutions afin de sélectionner les plus innovantes et adaptées au contexte du projet • Réaliser ou conduire les PoV (Proof of Value) et les PoC (Proof of Concept) • Rédiger le dossier d'architecture technique à travers le High et Low Level Design • Assurer le suivi de la conformité des réalisations projets relatives au dossier d'architecture technique • Veiller au suivi des bonnes pratiques sur l'ensemble du périmètre des réalisations techniques • Mener une démarche d'optimisation des coûts afin de garantir que l'architecture soit à la fois efficace et économique Référence de l'offre : ekr3f5u0ly
CDI

Offre d'emploi
Ingénieur Data SQL H/F

Publiée le
Administration réseaux
Administration système
Supervision

67150, Erstein, Grand Est
Contexte et définition du poste Plus qu'un métier, itéa a pour vocation de déceler et révéler les bons profils, avec une curiosité qui va souvent au-delà des compétences et parfois entre les lignes d'un CV. Aujourd'hui, nous recherchons pour l'un de nos clients un Ingénieur Data SQL H/F et vous présentons les points clés du poste : Poste en CDI Basé à Erstein Secteur du commerce de détails et de gros Les conditions : Rémunération selon le profil et les expériences Mode de travail : sur site ; Télétravail possible 1j/semaine après la période d'essai Période d'essai de 3 mois Les missions : Au sein du service Développement de la DSI, l'équipe Data a en charge la conception, la réalisation et le maintien en condition opérationnelle des principaux flux d'échanges de données inter-applicatifs. Pour accompagner son développement, l'entreprise cherche à renforcer l'équipe par une mission de prestation en régie sur site. Les attendus sont les suivants : La conception et l’alimentation de modèles de données dans la base de données pivot de l’entreprise (Staging DB) : Cluster MSQ SQL Server Accompagner l'entreprise dans la migration vers SQL server 2025 : déploiement d'un nouveau Cluser SQL Server 2025 et implémentation de la recherche vectorielle dans les applications existantes Mettre en place des flux d'échanges de données entre les différentes systèmes : ETL SSIS ave possible passage sur un ETL Opensource de type Polars / Pandas sous Airflow Réaliser des cahiers de charges et d'études de faisabilité Accompagner les métier s sur les choix d'architecture de données (choix des données pivots, format approprié des données, etc.) Garantir la qualité des données autant sur le plan technique que métier Intervenir ponctuellement sur le Datawarehouse : Base de données Oracle avec Scripting Bash
Freelance

Mission freelance
Senior Business Analyst & Chef de Projet Data – RSE / Bilan Carbone

Publiée le
Responsabilité Sociétale des Entreprises (RSE)

6 mois
460-650 €
Île-de-France, France
Télétravail partiel
Au sein de la DSI Workplace d'un grand groupe, nous recherchons un profil senior pour renforcer l'équipe dédiée à la RSE (Responsabilité Sociétale des Entreprises). Vous intégrerez une équipe à taille humaine (environ 12 personnes) gérant en moyenne 5 projets structurants par an. Il s'agit d'une mission longue durée (1 an renouvelable) nécessitant une forte autonomie et une capacité à prendre des responsabilités immédiates. VOS MISSIONS À la croisée des chemins entre les équipes métiers et les équipes techniques (Data Engineers), vous assurerez le rôle de Business Analyst et Chef de Projet. Analyse et Cadrage : Recueillir les besoins auprès des interlocuteurs Business RSE et comprendre les enjeux liés aux données du bilan carbone. Investigation de Données (Hands-on) : Explorer les bases de données en autonomie via des requêtes SQL complexes et utiliser Excel pour prototyper ou valider la qualité des données avant industrialisation. Spécification et Pilotage : Formaliser les règles de gestion et les traitements de données attendus. Dialoguer directement avec les Data Ingénieurs pour leur fournir des spécifications claires et tester leurs livrables. Pilotage de Projet : Suivre l’avancement, garantir les délais et la qualité des livrables.
5514 résultats

Contrats

Freelance CDI CDD Alternance Stage

Lieu

Télétravail

Télétravail partiel Télétravail 100% Présentiel

Taux Journalier Moyen min.

150 € 1300 € et +

Salaire brut annuel min.

20k € 250k €

Durée

0 mois 48 mois

Expérience

≤ 2 ans d’expérience 3 à 5 ans d’expérience 6 à 10 ans d’expérience > 10 ans d’expérience

Publication

Au service des talents IT

Free-Work est une plateforme qui s'adresse à tous les professionnels des métiers de l'informatique.

Ses contenus et son jobboard IT sont mis à disposition 100% gratuitement pour les indépendants et les salariés du secteur.

Free-workers
Ressources
A propos
Espace recruteurs
2025 © Free-Work / AGSI SAS
Suivez-nous