L’offre recherchée a été supprimée ou est expirée.
Voici des offres qui pourraient correspondre.
Trouvez votre prochaine mission ou futur job IT.
Votre recherche renvoie 2 774 résultats.
Mission freelance
ML Engineer
Bifora
Publiée le
Apache Airflow
CI/CD
FastAPI
12 mois
400-550 €
Paris, France
Contexte Mission au sein de la Direction Data d'un grand groupe média français. L'équipe porte la personnalisation de l'expérience utilisateur sur les offres numériques. Elle travaille sur des sujets de recommandation et de machine learning en production. L'équipe est composée d'un Product Owner, un Data Scientist, un Lead ML Engineer et un ML Engineer. Stack technique : Google Cloud Platform, Python, Vertex AI, BigQuery, Cloud Run, Airflow. Positionnement transverse, en lien direct avec la Direction Technique du Numérique et les équipes Data Engineering. Responsabilités Concevoir et maintenir des pipelines ML robustes, de la collecte des données à l'exposition des modèles via API REST Créer un premier cas d'usage de personnalisation utilisateur, le déployer et l'AB tester en production Mettre en place le monitoring et le contrôle des performances des modèles Organiser et structurer le stockage des données Industrialiser les modèles IA en lien avec les Data Scientists Construire et maintenir les workflows CI/CD Assurer l'évolutivité, la sécurité et la stabilité des environnements Collaborer avec les Data Engineers et les équipes techniques sur les bonnes pratiques Contribuer à la documentation et à la veille technologique Participer aux phases de cadrage, planification et réalisation en méthode Agile Environnement technique Python, SQL Google Cloud Platform (Vertex AI, BigQuery, Cloud Run) Airflow (orchestration) Flask / FastAPI Terraform (Infrastructure-as-Code) TensorFlow, scikit-learn GitLab, GitLab CI/CD
Offre d'emploi
Architecte Cloud Multi-Cloud - Stratégie Cloud
KLETA
Publiée le
AWS Cloud
Azure
GitLab CI
3 ans
Paris, France
Dans le cadre de programmes de transformation numérique, nous recherchons un Architecte Cloud Multi-Cloud pour accompagner nos clients dans la définition et la mise en œuvre de leur stratégie multi-cloud. Vous interviendrez sur des missions de cadrage, d’audit et de définition de trajectoires cibles adaptées aux contraintes techniques, organisationnelles et métiers. Vous analyserez les architectures existantes sur AWS, Azure et GCP, identifierez les risques et proposerez des solutions optimisées en matière de sécurité, de résilience et de coûts. Vous participerez à la conception de Landing Zones multi-cloud, à la structuration des environnements et à la mise en place de bonnes pratiques de gouvernance et de conformité. En collaboration avec les équipes DevOps et Sécurité, vous contribuerez à l’industrialisation des déploiements via Terraform et à l’adoption de principes cloud native harmonisés. Vous aurez également un rôle pédagogique en accompagnant les équipes client dans leur montée en compétence sur le multi-cloud.
Offre d'emploi
Expert technique Sécurité Cloud
SYNAPSYS IT
Publiée le
Azure
Cybersécurité
Google Cloud Platform (GCP)
6 mois
75k-85k €
600-700 €
Issy-les-Moulineaux, Île-de-France
Architecte Sécurité Cloud – Paris / Remote. Dans le cadre de sa transformation numérique mondiale , Nous renforçons notre équipe internationale de cybersécurité et recherchons un Architecte Sécurité Cloud capable de sécuriser un écosystème Azure à grande échelle et d’accompagner la création d’une plateforme Data & IA de nouvelle génération. Vous jouerez un rôle clé dans la définition des standards de sécurité, l’évaluation des architectures Cloud, et l’accompagnement des projets stratégiques au sein d’un environnement international complexe. Vos missions Expertise & Architecture Sécurité Cloud Concevoir des architectures Cloud & Data sécurisées, résilientes et scalables (Azure + on‑prem). Réaliser des évaluations de sécurité des services Azure, des architectures Data et des workloads IA. Définir les exigences de sécurité pour les projets IT stratégiques, notamment la future plateforme Data/IA. Examiner les services Azure et proposer des mesures de sécurité conformes au cadre IS&T. Gouvernance & Standards Sécurité Contribuer à la définition des politiques, directives et guidelines de sécurité Cloud. Participer à la mise en place des meilleures pratiques de sécurité et de gouvernance. Définir les prérequis techniques et fonctionnels de sécurité pour les projets Cloud majeurs (identités, intégration, data platform). Pilotage & Delivery Sécurité Piloter des projets de sécurité Cloud : cadrage, exigences, sélection de solutions, contractualisation, mise en œuvre. Soutenir les entités métiers et IT dans le déploiement de solutions de sécurité adaptées aux besoins business. Accompagner les régions et Business Units dans la migration et le déploiement de workloads sur le Cloud public. Analyse de risques & Conformité Évaluer les risques de sécurité sur les projets critiques et définir les mesures de protection adaptées. Analyser les demandes business/IT ayant un impact sur la sécurité Cloud et proposer des mesures d’atténuation. Garantir la conformité aux standards internes et aux référentiels internationaux (ISO, audits internes/externes).
Offre d'emploi
Ingénieur DevSecOps (H/F)/ Cesson-Sévigné (35)
OCSI
Publiée le
CI/CD
DevSecOps
Google Cloud Platform (GCP)
3 ans
40k-55k €
400-550 €
Cesson-Sévigné, Bretagne
Contexte Dans le cadre du renforcement de ses équipes, notre client, acteur majeur des télécommunications et de la cybersécurité, recherche un DevSecOps Engineer pour rejoindre ses équipes. Vous intégrerez l’équipe AOI , un groupe dynamique et engagé qui joue un rôle stratégique dans la sécurisation et l’innovation des solutions technologiques . Cette équipe travaille sur des solutions avancées combinant cloud, automatisation et intelligence artificielle afin d’améliorer la détection et la gestion des incidents de sécurité. Dans ce contexte, vous interviendrez notamment sur Qevlar AI , une solution innovante d’investigation automatique des incidents de sécurité basée sur l’IA et déployée dans un environnement cloud et conteneurisé . Missions En tant que Ingénieur DevSecOps , vous contribuerez au développement et à la sécurisation des plateformes techniques. À ce titre, vos principales responsabilités seront : Participer à la finalisation, au développement et à la maintenance de la solution Qevlar AI dédiée à l’investigation automatique des incidents de sécurité Concevoir, déployer et maintenir des pipelines CI/CD sécurisés afin de garantir la qualité et la sécurité des livrables Collaborer étroitement avec les équipes de développement et de cybersécurité pour intégrer les bonnes pratiques DevSecOps Mettre en place et automatiser les processus de sécurité et de conformité tout au long du cycle de vie des applications Participer à la surveillance et à l’analyse des incidents de sécurité afin d’identifier des axes d’amélioration continue Contribuer à la définition et à la mise en œuvre des politiques de sécurité dans des environnements cloud et on-premise Intervenir sur les solutions d’ orchestration et d’automatisation des réponses aux incidents , notamment XSOAR et N8N
Mission freelance
Data Engineer - Lille
ICSIS
Publiée le
Apache Kafka
CI/CD
DBT
2 ans
400-500 €
Lille, Hauts-de-France
La mission consiste à : - Exposer les données utiles à l’entreprise pour les analyser et les utiliser afin d’améliorer l’expérience utilisateur et la productivité - Transformer des données issues du DataLake afin de les normaliser - Modéliser la sphère de données - Développer les flux - Exposer des données brutes et/ou agrégées au bon niveau de granularité aux différents métiers de l’entreprise - Travailler en lien avec des Data Scientists sur les données qu’il aura exposées - Mettre en place des rapports de Dataviz - Mission basée en métropole lilloise avec présence sur site 3j/semaine obligatoire Compétences demandées : - Formation supérieure en école d’ingénieur, école d’informatique ou Master spécialisé dans la Data Science - Première expérience en Data Engineering indispensable - Snowflake, GCP, BigQuery, DBT, SQL, Semarchy, Airflow, Python ... - Excellents savoir-être : rigueur, esprit analytique et de synthèse, communication... - Méthode Agile - Anglais
Offre d'emploi
Architecte Data AWS
KLETA
Publiée le
Amazon Redshift
AWS Cloud
3 ans
Paris, France
Dans le cadre d’un programme de transformation data, nous recherchons un Architecte Data AWS pour définir et piloter l’évolution des plateformes de données cloud natives sur Amazon Web Services. Vous analyserez les architectures existantes, identifierez les limites techniques et proposerez des trajectoires cibles adaptées aux enjeux métiers, techniques et opérationnels. Vous guiderez la conception de nouvelles architectures en intégrant des services et technologies AWS tels que S3, Glue, Redshift, Athena, EMR, Kinesis ou des approches lakehouse lorsque pertinent. Vous serez responsable des choix structurants en matière de stockage, de traitement, de gouvernance, de sécurité et de qualité des données, en veillant à la performance, à la scalabilité et à la résilience des plateformes. Vous travaillerez étroitement avec les équipes Data Engineering, Cloud et DevOps pour garantir une mise en œuvre industrialisée, alignée avec les standards d’entreprise et les contraintes d’exploitation. Vous aurez également un rôle clé dans l’animation d’ateliers techniques, la formalisation de patterns d’architecture et l’accompagnement des équipes dans l’adoption des meilleures pratiques data sur AWS.
Mission freelance
Data Scientist – Deep Learning / NLP
ESENCA
Publiée le
Google Cloud Platform (GCP)
Machine Learning
Python
1 an
400-500 €
Lille, Hauts-de-France
Contexte Dans le cadre du renforcement de ses équipes Data, notre client recherche un Data Scientist senior spécialisé en Deep Learning et NLP , avec une expérience significative dans le secteur retail . Mission longue durée : 12 mois renouvelables . Missions Concevoir, développer et optimiser des modèles de Deep Learning (PyTorch) appliqués à des cas d’usage retail Travailler sur des problématiques avancées de : Learning to Rank (LTR) Ranking / systèmes de recommandation Génération d’embeddings Fine-tuner et adapter des modèles existants : LLM (Large Language Models) autres modèles NLP Explorer, analyser et valoriser des données complexes pour améliorer la performance des modèles Réaliser des PoC / MVP pour valider les approches techniques Participer à l’industrialisation et à l’amélioration continue des modèles Collaborer avec les équipes métiers et techniques (Data, Produit, IT) Environnement technique Python (expert) Machine Learning / Deep Learning PyTorch NLP / LLM Google Cloud Platform (GCP) Soft skills Esprit analytique et orienté résultats Capacité à travailler en équipe transverse Autonomie et capacité à proposer des solutions Bonne communication
Mission freelance
Developpeur fullstack Java/Angular (H/F)
Insitoo Freelances
Publiée le
Angular
Entreprise Java Bean (EJB)
Google Cloud Platform (GCP)
2 ans
400-450 €
Hauts-de-France, France
Basée à Lille, Lyon, Nantes, Grenoble, Marseille, Paris et Bruxelles, Insitoo Freelances est une société du groupe Insitoo, spécialisée dans le placement et le sourcing des Freelances IT et Métier. Depuis 2007, Insitoo Freelances a su s’imposer comme une référence en matière de freelancing par son expertise dans l’IT et ses valeurs de transparence et de proximité. Actuellement, afin de répondre aux besoins de nos clients, nous recherchons un Developpeur fullstack Java/Angular (H/F) à Hauts-de-France, France. Les missions attendues par le Developpeur fullstack Java/Angular (H/F) : - participer activement aux rituels agiles - participer à la conception technique des US de la backlog - prendre en charge le développements de ces US - présenter les livrables au testeur - prendre en charge les retours sur les développements - sur le run : diagnostiquer et traiter les incidents - sur le run : proposer une résolution aux problèmes de fond identifiés. Développeur Java/Angular sensible à un processus de qualité des développements (merge request, TU/TI, préconisation Sonar) Dans un contexte de responsabilisation, nous recherchons des ressources autonomes, qui soient orientées aux résultats . La mission aura des activités tant sur le run (environ 20%) que du build (environ 80%) Nous recherchons des personnes polyvalentes capables de s'adapter au contexte et pouvant intervenir dans différents domaines. Compétences fortement recherchées : technique requis : Java 17/21, framework Angular 14+, SQL, SpringBoot, Spring-data-jpa technique optionnel : PL/SQL, GCP Activité principale : Développement Activités complémentaires possibles : Test/ Mise en production, Analyse fonctionnelle Méthodologie Agile : Scrum Langues : français et anglais
Offre d'emploi
DevSecOps GCP - Transformation
KLETA
Publiée le
GitLab CI
Google Cloud Platform (GCP)
Terraform
3 ans
Paris, France
Dans le cadre de programmes de transformation numérique, nous recherchons un DevSecOps GCP pour accompagner nos clients dans l’adoption de pratiques de sécurité cloud modernes et industrialisées. Vous interviendrez sur des missions d’audit, de cadrage et de mise en place de dispositifs DevSecOps adaptés aux contraintes techniques et réglementaires. Vous analyserez les environnements existants, identifierez les risques et proposerez des trajectoires d’amélioration en matière de sécurité et d’automatisation. Vous participerez à l’intégration de contrôles de sécurité dans les pipelines CI/CD, à la mise en place de politiques de conformité via Security Command Center et à l’automatisation des processus via Infrastructure as Code. Vous accompagnerez également les équipes client dans leur montée en compétence sur GCP et les pratiques DevSecOps, en animant des ateliers et en diffusant les bonnes pratiques. Votre rôle combinera expertise technique et conseil, avec une forte capacité à adapter votre discours à des interlocuteurs variés (techniques, sécurité, exploitation et métiers).
Mission freelance
Développeur GenAI Python / GCP (H/F)
HOXTON PARTNERS
Publiée le
GenAI
Google Cloud Platform (GCP)
Python
1 an
400-520 €
Paris, France
Dans le cadre du développement de solutions d’intelligence artificielle avancées, nous recherchons un Développeur GenAI Python avec expertise GCP afin de contribuer à la conception et au développement de services applicatifs basés sur des modèles d’IA générative. Le consultant interviendra sur la conception et le développement de services applicatifs autour des LLM , l’intégration de modèles d’intelligence artificielle, ainsi que la mise en place d’architectures cloud scalables dans un environnement Google Cloud Platform. L’objectif est de construire des composants robustes permettant d’exploiter l’IA générative dans des applications à forte exigence de performance, de sécurité et de scalabilité. La mission couvre l’ensemble du cycle de développement : design d’API, développement de microservices, intégration des modèles d’IA, mise en production et optimisation des performances dans un environnement cloud moderne. Le consultant contribuera également à la mise en place de mécanismes d’orchestration d’agents IA, d’intégration avec des modèles LLM et de couches d’intégration sécurisées , afin de garantir des systèmes fiables et performants. Responsabilités principales Développer des services applicatifs autour de l’IA générative et des modèles LLM Concevoir et développer des microservices en Python Mettre en place des API REST sécurisées et performantes Intégrer des LLM (OpenAI, Anthropic, Vertex AI) dans les applications Développer des mécanismes de routage et d’orchestration pour agents IA Concevoir des architectures cloud scalables et résilientes sur GCP Optimiser les performances pour garantir faible latence et haute disponibilité Mettre en œuvre les bonnes pratiques de sécurité applicative et IA Environnement technique Cloud Google Cloud Platform : Cloud Run, Cloud Build, Cloud Functions Vertex AI Backend Python FastAPI Pydantic SQLAlchemy Bases de données Firestore Redis NoSQL GenAI Intégration LLM (OpenAI, Anthropic, Vertex AI) Prompt engineering Architectures d’agents IA Frameworks d’orchestration (LangChain, ADK) DevOps Docker GitHub CI/CD Monitoring Cloud Logging Cloud Monitoring Outils de développement GitHub Outils de développement assistés par IA
Offre d'emploi
Data Analyst Sénior
Inventiv IT
Publiée le
Batch
BigQuery
ClickHouse
1 an
Casablanca, Casablanca-Settat, Maroc
Mission Principale Rattaché au pôle Data/IA Fabric, votre objectif est de résoudre les divergences de données entre les différents environnements, notamment le On-Premise et le Cloud. Vous définissez les standards de mesure pour une zone internationale multi-pays et jouez un rôle moteur dans la transition vers une architecture unique, robuste et fiable. Responsabilités Audit et Réconciliation : Analyser les flux provenant de Firebase, Batch et Clickhouse pour identifier l'origine des écarts de KPIs, comme le nombre d'utilisateurs actifs, entre BigQuery et Clickhouse. Standardisation des Métriques : Définir des règles de gestion communes et des mappings JSON/HTTPS unifiés pour garantir la cohérence des données, quel que soit le canal d'émission, tel que App Kiph ou Sent Apk. Optimisation de l'Architecture : Collaborer avec les ingénieurs pour migrer progressivement les traitements vers une architecture cible, avec une préférence pour GCP et BigQuery, tout en assurant l'intégrité de la donnée historique. Architecture cible robuste Gouvernance et Qualité : Mettre en place des dashboards de monitoring de la qualité de données et instaurer des alertes sur les seuils de divergence entre les sorties. Mise en place d'une modern Data Platform robuste Compétences Techniques Requises Maîtrise SQL Expert : Capacité à requêter et optimiser des volumes massifs sur BigQuery (GCP) et Clickhouse. Stack Data Mobile : Expérience significative avec l'écosystème Firebase et les outils de push notification comme Batch. Ingestion & Formats : Excellente compréhension des flux JSON/HTTPS et des problématiques de collecte de données via SDK ou APK. Modélisation : Maîtrise des principes d'ETL/ELT et de la construction de modèles de données robustes (la connaissance de dbt est un plus). Profil Recherché Formation : Diplôme d'Ingénieur ou Master en Data/Statistiques. Expérience : 5 ans minimum Soft Skills : Esprit analytique poussé, capacité à vulgariser des problématiques techniques complexes auprès d'interlocuteurs métiers et excellente communication pour coordonner plusieurs pays. L’indispensable INVENTIV IT Expérience avérée sur des projets de Data Platform & Data Market Place. Capacité à évoluer dans un contexte technologique mature incluant Databricks, Snowflake, Power BI et l'IA. Poste basé à Casablanca, Maroc Mode : Forfait/Régie Rythme : Hybride/à distance Profil sénior : 5 ans d’expérience minimum
Mission freelance
Data engineer (aws / talend / power bi)
Signe +
Publiée le
Microsoft Power BI
12 mois
400-440 €
Grenoble, Auvergne-Rhône-Alpes
contexte de la mission intervention chez un client grenoblois sur des sujets data environnement orienté cloud aws avec exploitation d’un datalake besoin d’un profil capable de couvrir à la fois la data ingénierie et une partie data visualisation missions principales conception, développement et maintenance de pipelines data exploitation et optimisation d’un datalake sur aws traitement, transformation et intégration des données via talend mise à disposition des données pour les équipes métiers création de dashboards et reporting sous power bi participation aux choix techniques et à l’amélioration continue des architectures data environnement technique cloud / data : aws (lambda, athena, glue, step functions, rds, s3) etl : talend data visualisation : microsoft power bi profil recherché expérience significative en data engineering bonne maîtrise de l’écosystème aws data (datalake) solide expérience sur talend (obligatoire) capacité à produire des dashboards power bi autonomie et capacité à intervenir en environnement projet
Mission freelance
DEVOPS EXPERT H/F
HAYS France
Publiée le
Cloud
Datadog
Google Cloud Platform (GCP)
1 an
400-480 €
Lille, Hauts-de-France
Dans le cadre du renforcement d’une équipe Observabilité, nous recherchons un Ingénieur Observabilité / DevOps expérimenté pour contribuer à la construction et à l’évolution d’une plateforme d’Observabilité opérant des solutions open-source à grande échelle. Cette plateforme couvre les besoins de monitoring, dashboarding, alerting, log management et APM pour des applications hébergées on-premise et cloud. Vous interviendrez principalement sur les composants OpenTelemetry et la stack Grafana OSS (Loki, Mimir, Tempo, Alloy, etc.) opérés en interne. Vos missions Contribution technique & expertise Participer activement au design de la plateforme d’Observabilité Intégrer, déployer, paramétrer et templater les différents composants (Grafana OSS / OTEL) Assurer le delivery des composants techniques liés à la stratégie d’Observabilit Run, optimisation & fiabilité Administrer et maintenir l’ensemble des outils de la plateforme Gérer incidents, problèmes et performance Industrialiser les déploiements / pipelines Participer à l’amélioration continue et à l’évolution des bonnes pratiques Support & accompagnement Conseiller les équipes dans : La collecte (logs, métriques, traces) L’exploitation des données dans les backends L’amélioration de la disponibilité et des performances applicatives (en environnement international) Documentation & partage de connaissances Rédiger ADR, documentations techniques, RUN books Diffuser la connaissance auprès des équipes internes
Mission freelance
Architecte GCP Gouvernance
Groupe Aptenia
Publiée le
Azure
CI/CD
Datadog
3 mois
Paris, France
Mission d’Architecte Cloud orientée GCP au sein d’un acteur majeur de la fintech. L’objectif est de renforcer et structurer une plateforme GCP encore en croissance, tout en l’interconnectant avec une plateforme Azure déjà mature. Le rôle consiste à définir la gouvernance cloud (landing zones, IAM, sécurité, policies), concevoir l’architecture multi-cloud, et accompagner les équipes sur les bonnes pratiques DevOps et platform engineering. Forte expertise GCP requise, bonne connaissance d’Azure et de Terraform appréciée.
Mission freelance
Ingénieur d'études IT
WINSIDE Technology
Publiée le
Agent IA
Google Cloud Platform (GCP)
Supply Chain
1 an
390-550 €
Lille, Hauts-de-France
"Nous recherchons un Application Analyst / Ingénieur d'étude IT Senior (8 ans+ exp.) pour rejoindre un environnement international et innovant. Votre rôle : - Appréhender les processus métiers complexes et designer des solutions IT robustes (Cloud Native) et lien avec éditeur. - Intervenir sur l'ensemble du cycle de vie des applications (Cadrage, Build et suivi du Run). - Piloter et optimiser nos flux d'intégration (maîtrise des échanges de données indispensable). - Documenter, structurer et faire vivre les référentiels de processus."
Mission freelance
Data Engineer -CLOUD GOOGLE-
DEVIK CONSULTING
Publiée le
Apache Airflow
BigQuery
Google Cloud Platform (GCP)
1 an
400-650 €
Paris, France
Description Pour le compte de notre client grand compte, nous recherchons un Expert Data Engineer Spécialisé sur Google Cloud afin de rejoindre la Squad data pour le pilotage commercial Tâches principales Développement de pipeline de données sur Cloud Composer / Airflow Optimisation des performances et coûts des traitements sur GCP Participation aux choix d'outils et des solutions techniques sur GCP et développement de nouvelles application Modélisation des données sur BigQuery Maintenir l'existant en condition opérationnelle Préparer et mettre en œuvre l’interopérabilité avec de nouveaux systèmes opérationnels Proposer des simplifications et/ou optimisations selon les normes internes Compétences demandées GCP : Confirmé Big Query : Expert Base de donnée : Confirmé Python : confirmé Lieu : Paris
Déposez votre CV
-
Fixez vos conditions
Rémunération, télétravail... Définissez tous les critères importants pour vous.
-
Faites-vous chasser
Les recruteurs viennent directement chercher leurs futurs talents dans notre CVthèque.
-
100% gratuit
Aucune commission prélevée sur votre mission freelance.
Derniers posts sur le forum
2774 résultats
Contrats
Lieu
Télétravail
Taux Journalier Moyen min.
150 €
1300 € et +
Salaire brut annuel min.
20k €
250k €
Durée
0
mois
48
mois