Hello.

I am Paul Kinlan.

A Developer Advocate for Chrome and the Open Web at Google.

pinch-zoom-element

Paul Kinlan

Jake und das Team erstellten dieses ziemlich beeindruckende benutzerdefinierte Element zum Verwalten des Pinch-Zooms in einem beliebigen HTML-Satz außerhalb der eigenen Pinch-Zoom-Dynamik des Browsers (z. B. Mobile Viewport Zooming). Das Element war eine der zentralen Komponenten, die wir für die von Chrome Dev Summit entwickelte und veröffentlichte squoosh App benötigten (… ich sage 'Chrome Dev Summit') - Jake zeigte es allen beim China Google Developer Day obwohl der Rest des Teams unter Embargo stand;) …)

install: npm install --save-dev pinch-zoom-element

<pinch-zoom>
  <h1>Hello!</h1>
</pinch-zoom>

Read full post .

Ich habe es gerade zu meinem Blog hinzugefügt (es dauerte nur ein paar Minuten). Sie können es in meinem life -Abschnitt life , wo ich Fotos weitergebe, die ich gemacht habe. Wenn Sie sich auf einem berührungsfähigen Gerät befinden, können Sie das Element schnell zusammenzoomen, wenn Sie ein Trackpad verwenden, das mehrere Fingereingaben verarbeiten kann, was ebenfalls funktioniert.

Dieses Element ist ein hervorragendes Beispiel dafür, warum ich Webkomponenten als Modell für die Erstellung von Komponenten der Benutzeroberfläche liebe. Das pinch-zoom Element ist knapp 3kb auf dem Draht (unkomprimiert) und minimiert die Abhängigkeiten für das Erstellen. Es macht nur eine Aufgabe außergewöhnlich gut, ohne dabei eine benutzerdefinierte Anwendungsebene zu binden, die die Verwendung erschwert (ich habe einige Gedanken zur UI-Logik vs App-Logikkomponenten, die ich basierend auf meinen Lernergebnissen aus der Squoosh-App freigeben werde).

Ich würde mir sehr freuen, wenn solche Elemente mehr Aufmerksamkeit und Bekanntheit erlangen würden. Ich könnte mir zum Beispiel vorstellen, dass dieses Element die Bildzoomfunktion ersetzen oder standardisieren könnte, die Sie auf vielen Commerce-Sites sehen, und den Entwicklern den Schmerz für immer nehmen wird.

Paul Kinlan

Trying to make the web and developers better.

RSS Github Medium

Registering as a Share Target with the Web Share Target API

Paul Kinlan

Pete LePage führt die Web Share Target-API und die Verfügbarkeit in Chrome über einen Origin-Test ein

Until now, only native apps could register as a share target. The Web Share Target API allows installed web apps to register with the underlying OS as a share target to receive shared content from either the Web Share API or system events, like the OS-level share button.

Read full post .

Diese API ist ein Game-Changer im Web. Sie öffnet das Web für etwas, das für native Apps nur einmal verfügbar war: Native Sharing. Apps sind Silos, sie saugen alle Daten ein und machen es schwierig, plattformübergreifend zugänglich zu sein. Share Target fängt an, das Spielfeld zu nivellieren, damit das Web in demselben Spiel spielen kann.

Die already enabled Twitter Mobile hat Share Target already enabled . Dieser Beitrag wurde mit dem Share-Ziel erstellt, das ich im Administrationsbereich meiner Websites ' manifest.json ' manifest.json Es funktioniert ziemlich gut und manifest.json die Unterstützung für Dateien manifest.json , kann ich jedes Bild oder Blob auf meinem Gerät in meinem Blog veröffentlichen.

Sehr aufregende Zeiten.

Lesen Sie den verlinkten Beitrag, um mehr über die Zeitvorgaben für die Veröffentlichung dieser API und die Verwendung der API zu erfahren.

Why Build Progressive Web Apps: Push, but Don't be Pushy! Video Write-Up

Paul Kinlan

Ein großartiger Artikel sowie ein Video und ein Beispiel von Thomas Steiner zu guten Push-Benachrichtigungen im Web.

A particularly bad practice is to pop up the permission dialog on page load, without any context at all. Several high traffic sites have been caught doing this. To subscribe people to push notifications, you use the the PushManager interface. Now to be fair, this does not allow the developer to specify the context or the to-be-expected frequency of notifications. So where does this leave us?

Read full post .

Web Push ist eine erstaunlich leistungsfähige API, aber es ist einfach, Ihre Benutzer zu missbrauchen und zu ärgern. Das Schlechte an Ihrer Website ist, dass wenn ein Benutzer Benachrichtigungen aufgrund einer Eingabeaufforderung ohne Warnung blockiert, die Möglichkeit besteht, erneut zu fragen.

Behandeln Sie Ihre Benutzer mit Respekt. Context ist ein Muss für Web Push-Benachrichtigungen.

Maybe Our Documentation "Best Practices" Aren''t Really Best Practices

Paul Kinlan

Kayce Basques, ein großartiger Tech-Autor aus unserem Team, schrieb einen ziemlich erstaunlichen Artikel über seine Erfahrungen, in dem er misst, wie gut die bewährten Best Practices für die Dokumentation von technischem Material funktionieren. Bewährte Verfahren in diesem Sinne können bekannte Industriestandards für das technische Schreiben sein, oder es kann ein Leitfaden für Ihr eigenes Schreibstil sein. Hör zu!

Recently I discovered that a supposed documentation “best practice” may not actually stand up to scrutiny when measured in the wild. I’m now on a mission to get a “was this page helpful?” feedback widget on every documentation page on the web. It’s not the end-all be-all solution, but it’s a start towards a more rigorous understanding of what actually makes our docs more helpful.

Read full post .

Obwohl ich kein Tech-Autor bin, beinhaltet meine Rolle eine enorme Menge an Engagement in unserem Tech-Writing-Team sowie die Veröffentlichung zahlreicher „Best Practices“ für Entwickler. Ich war erstaunt darüber, wie viel und tiefgründig Kayce mit der Kunst des Schreibens moderner Dokumente aus dem Blickwinkel der Inhalte unseres Teams beigetragen hat. Ich empfehle Ihnen dringend, Kayces Artikel ausführlich zu lesen - ich habe viel gelernt. Danke, Kayce!

Grep your git commit log

Paul Kinlan

Finding code that was changed in a commit

Read More

Performance and Resilience: Stress-Testing Third Parties by CSS Wizardry

Paul Kinlan

Ich war vor ein paar Wochen für den Google Developer Day in China und habe allen meinen QRCode-Scanner gezeigt, es funktionierte großartig, bis ich offline ging. Wenn der Benutzer offline war (oder teilweise verbunden war), konnte die Kamera nicht starten, was dazu führte, dass QR-Codes nicht ausgelöst werden konnten. Ich brauchte ein ganzes Alter, um herauszufinden, was passierte, und es stellte sich heraus, dass ich irrtümlich die Kamera bei meinem Onload-Ereignis gestartet hatte und die Google Analytics-Anfrage hängen blieb und nicht rechtzeitig gelöst werden konnte. Es war dieses Festschreiben, das es reparierte.

Because these types of assets block rendering, the browser will not paint anything to the screen until they have been downloaded (and executed/parsed). If the service that provides the file is offline, then that’s a lot of time that the browser has to spend trying to access the file, and during that period the user is left potentially looking at a blank screen. After a certain period has elapsed, the browser will eventually timeout and display the page without the asset(s) in question. How long is that certain period of time?

It’s 1 minute and 20 seconds.

If you have any render-blocking, critical, third party assets hosted on an external domain, you run the risk of showing users a blank page for 1.3 minutes.

Below, you’ll see the DOMContentLoaded and Load events on a site that has a render-blocking script hosted elsewhere. The browser was completely held up for 78 seconds, showing nothing at all until it ended up timing out.

Ganzen Beitrag lesen.

Ich ermutige Sie, den Beitrag zu lesen, weil es viele großartige Einblicke gibt.

Chrome Bug 897727 - MediaRecorder using Canvas.captureStream() fails for large canvas elements on Android

Paul Kinlan

Am Wochenende habe ich mit einem Boomerang-Effekt-Video-Encoder herumgespielt, man kann es quasi in Echtzeit arbeiten lassen (ich werde es später erklären). Ich habe es auf Chrome auf dem Desktop funktioniert, aber es würde nie richtig in Chrome unter Android funktionieren. Siehe der Code hier.

Es sieht so aus, als wenn Sie captureStream () auf einem verwenden <canvas>das hat eine relativ große Auflösung (1280x720 in meinem Fall) ist die MediaRecorder API nicht in der Lage, die Videos zu codieren und es wird kein Fehler und Sie können nicht feststellen, dass es das Video nicht vor der Zeit codieren kann.

(1) Capture a large res video (from getUM 1280x720) to a buffer for later processing. (2) Create a MediaRecorder with a stream from a canvas element (via captureStream) sized to 1280x720 (3) For each frame captured putImageData on the canvas (4) For each frame call canvasTrack.requestFrame() at 60fps

context.putImageData(frame, 0, 0); canvasStreamTrack.requestFrame();

Demo: https://boomerang-video-chrome-on-android-bug.glitch.me/ Code: https://glitch.com/edit/#!/boomerang-video-chrome-on-android-bug?path=script.js:21:42

What is the expected result?

For the exact demo, I buffer the frames and then reverse them so you would see the video play forwards and backwards (it works on desktop). In generall I would expect all frames sent to the canvas to be processed by the MediaRecorder API - yet they are not.

What happens instead?

It only captures the stream from the canvas for a partial part of the video and then stops. It’s not predicatable where it will stop.

I suspect there is a limit with the MediaRecorder API and what resolution it can encode depending on the device, and there is no way to know about these limits ahead of time.

As far as I can tell this has never worked on Android. If you use https://boomerang-video-chrome-on-android-bug.glitch.me which has a 640x480 video frame it records just fine. The demo works at higher-resolution just fine on desktop.

Ganzen Beitrag lesen.

Wenn du mit der Demo spielen willst, die auf beiden funktioniert, dann klick hier

Why Microsoft and Google love progressive web apps | Computerworld

Paul Kinlan

Ein schöner Post über PWA von Mike Elgan. Ich bin mir über Microsofts Ziel bei PWA nicht sicher, aber meiner Meinung nach ist es ziemlich einfach: Wir möchten, dass Benutzer sofort und auf eine Art und Weise Zugriff auf Inhalte und Funktionen haben, von denen sie erwarten, dass sie auf ihren Geräten mit ihnen interagieren können. Das Web sollte jeden über jedes angeschlossene Gerät erreichen und ein Benutzer sollte in der Lage sein, auf seine bevorzugte Modalität zuzugreifen, als eine App, wenn sie es so erwarten (Handy, vielleicht), oder Stimme auf einem Assistenten usw.

Wir sind immer noch ein langer Weg vom kopflosen Web, aber eine Sache hat mich in dem Artikel wirklich beeindruckt:

Another downside is that PWAs are highly isolated. So it’s hard and unlikely for different PWAs to share resources or data directly.

Ganzen Beitrag lesen.

Websites und Apps im Internet sollen nicht isoliert sein, das Web ist linkbar, indexierbar, ephemeral, aber wir werden mit jeder Site, die wir erstellen, mehr isoliert. Wir erstellen unbeabsichtigte Silos, weil die Plattform es Benutzern nicht leicht macht, * ihre * Daten einfach von Websites zu bekommen. Ich spreche nicht über RDF oder ähnliches, grundlegende Operationen wie Kopieren und Einfügen, Ziehen und Ablegen, Freigabe zur Site und Freigabe von der Site sind im heutigen Web gebrochen, und das ist bevor wir zur IPC zwischen Frames, Workern gelangen und Fenster.

Building a video editor on the web. Part 0.1 - Screencast

Paul Kinlan

Sie sollten Videos nur über das Web im Browser erstellen und bearbeiten können. Es sollte möglich sein, eine Benutzeroberfläche ähnlich wie bei Screenflow bereitzustellen, mit der Sie ein Ausgabevideo erstellen können, das mehrere Videos, Bilder und Audio zu einem Video kombiniert, das zu Diensten wie YouTube hochgeladen werden kann. Im Anschluss an den meinem vorheriger Beitrag, der kurz die Anforderungen des Videoeditors beschreibt, wollte ich in diesem Beitrag nur schnell in einem Screencast zeigen, wie ich den Web Cam Recorder gebaut habe, und wie man einen Screencast erstellt Recorder :)

Read More

894556 - Multiple video tracks in a MediaStream are not reflected on the videoTracks object on the video element

Paul Kinlan

Das erste Problem, das ich gefunden habe, versucht einen Videoeditor im Internet zu erstellen.

Ich habe mehrere Videostreams (Desktop und Web Cam) und wollte zwischen den Videoströmen eines Videoelements wechseln können, um schnell zwischen der Webcam und dem Desktop wechseln zu können und den MediaRecorder nicht zu zerbrechen.

Es sieht so aus, als ob Sie dies tun können, indem Sie die Eigenschaft selected auf demvideoTracks Objekt auf dem <video>Element, aber Sie können nicht, das Array von Tracks enthält nur 1 Element (die erste Videospur auf dem MediaStream).

What steps will reproduce the problem? (1) Get two MediaStreams with video tracks (2) Add them to a new MediaStream and attach as srcObject on a videoElement (3) Check the videoElement.videoTracks object and see there is only one track

Demo at https://multiple-tracks-bug.glitch.me/

What is the expected result? I would expect videoElement.videoTracks to have two elements.

What happens instead? It only has the first videoTrack that was added to the MediaStream.

Ganzen Beitrag lesen.

Repro-Fall.

window.onload = () => {
  if('getDisplayMedia' in navigator) warning.style.display = 'none';

  let blobs;
  let blob;
  let rec;
  let stream;
  let webcamStream;
  let desktopStream;

  captureBtn.onclick = async () => {

       
    desktopStream = await navigator.getDisplayMedia({video:true});
    webcamStream = await navigator.mediaDevices.getUserMedia({video: { height: 1080, width: 1920 }, audio: true});
    
    // Always 
    let tracks = [...desktopStream.getTracks(), ... webcamStream.getTracks()]
    console.log('Tracks to add to stream', tracks);
    stream = new MediaStream(tracks);
    
    console.log('Tracks on stream', stream.getTracks());
    
    videoElement.srcObject = stream;
    
    console.log('Tracks on video element that has stream', videoElement.videoTracks)
    
    // I would expect the length to be 2 and not 1
  };

};

Building a video editor on the web. Part 0.

Paul Kinlan

Sie sollten Videos nur über das Web im Browser erstellen und bearbeiten können. Es sollte möglich sein, eine Benutzeroberfläche ähnlich wie bei Screenflow bereitzustellen, mit der Sie ein Ausgabevideo erstellen können, das mehrere Videos, Bilder und Audio zu einem Video kombiniert, das zu Diensten wie YouTube hochgeladen werden kann. Dieser Beitrag ist wirklich nur eine Absichtserklärung. Ich werde mit dem langen Prozess beginnen, herauszufinden, was auf der Plattform verfügbar ist und was nicht, und sehen, wie weit wir heute kommen können.

Read More

Barcode detection in a Web Worker using Comlink

Paul Kinlan

Ich bin ein großer Fan von QRCodes, sie sind eine sehr einfache und nette Möglichkeit, Daten zwischen der realen Welt und der digitalen Welt auszutauschen. Seit ein paar Jahren habe ich ein kleines Nebenprojekt namens QRSnapper & mdash; Nun, es hatte ein paar Namen, aber das ist die, auf die ich mich festgelegt habe & mdash; Diese nutzt die API “getUserMedia”, um Live-Daten von der Kamera des Benutzers zu empfangen, so dass sie fast in Echtzeit nach QR-Codes scannen kann.

Das Ziel der App war es, 60 fps in der Benutzeroberfläche zu halten und fast sofort den QR-Code zu erkennen. Das bedeutete, dass ich den Erkennungscode in einen Web-Worker stecken musste (ziemlich normales Zeug). In diesem Post wollte ich nur schnell mitteilen, wie ich comlink benutzt habe, um die Logik im Worker massiv zu vereinfachen.

qrclient.js

import * as Comlink from './comlink.js';

const proxy = Comlink.proxy(new Worker('/scripts/qrworker.js')); 

export const decode = async function (context) {
  try {
    let canvas = context.canvas;
    let width = canvas.width;
    let height = canvas.height;
    let imageData = context.getImageData(0, 0, width, height);
    return await proxy.detectUrl(width, height, imageData);
  } catch (err) {
    console.log(err);
  }
};

qrworker.js (Web-Arbeiter)

import * as Comlink from './comlink.js';
import {qrcode} from './qrcode.js';

// Use the native API's
let nativeDetector = async (width, height, imageData) => {
  try {
    let barcodeDetector = new BarcodeDetector();
    let barcodes = await barcodeDetector.detect(imageData);
    // return the first barcode.
    if (barcodes.length > 0) {
      return barcodes[0].rawValue;
    }
  } catch(err) {
    detector = workerDetector;
  }
};

// Use the polyfil
let workerDetector = async (width, height, imageData) => {
  try {
    return qrcode.decode(width, height, imageData);
  } catch (err) {
    // the library throws an excpetion when there are no qrcodes.
    return;
  }
}

let detectUrl = async (width, height, imageData) => {
  return detector(width, height, imageData);
};

let detector = ('BarcodeDetector' in self) ? nativeDetector : workerDetector;
// Expose the API to the client pages.
Comlink.expose({detectUrl}, self);

Ich liebe wirklich Comlink, ich denke, es ist ein Game Changer einer Bibliothek, besonders wenn es darum geht, idiomatisches JavaScript zu erstellen, das über Threads hinweg funktioniert. Schließlich ist es eine nette Sache, dass die native Barcode-Erkennungs-API in einem Worker ausgeführt werden kann, sodass die gesamte Logik außerhalb der Benutzeroberfläche gekapselt ist.

Ganzen Beitrag lesen.

Running FFMPEG with WASM in a Web Worker

Paul Kinlan

Ich liebe FFMPEG.js, es ist ein nettes Tool, das mit asm.js` zusammengestellt wurde und ich kann JS Web-Apps erstellen, die Videos schnell bearbeiten können. FFMPEG.js funktioniert auch mit Web Worker, sodass Sie Videos codieren können, ohne den Hauptthread zu blockieren.

Ich liebe auch Comlink. Mit Comlink kann ich leicht mit Web-Arbeitern interagieren, indem ich Funktionen und Klassen offen lege, ohne mich mit einem komplexen `postMessage’-Zustandsautomaten auseinandersetzen zu müssen.

Ich habe vor kurzem die beiden zusammen zu kombinieren. Ich habe experimentiert FFMPEG in Web Assembly exportieren (es funktioniert - yay) und ich wollte alle PostMessage Arbeit im aktuellen FFMPEG.js Projekt aufräumen. Unten ist, wie der Code jetzt aussieht - ich denke, es ist ziemlich ordentlich. Wir haben einen Worker, der ffmpeg.js und comlink importiert und einfach die ffmpeg-Schnittstelle verfügbar macht. Dann haben wir die Webseite, die den Worker lädt und anschließend mithilfe von comlink einen Proxy für die ffmpeg-API erstellt.

Ordentlich.

worker.js

importScripts('https://cdn.jsdelivr.net/npm/comlinkjs@3.0.2/umd/comlink.js');
importScripts('../ffmpeg-webm.js'); 
Comlink.expose(ffmpegjs, self);

client.html

let ffmpegjs = await Comlink.proxy(worker);
let result = await ffmpegjs({
   arguments: ['-y','-i', file.name, 'output.webm'],
   MEMFS: [{name: file.name, data: data}],
   stdin: Comlink.proxyValue(() => {}),
   onfilesready: Comlink.proxyValue((e) => {
     let data = e.MEMFS[0].data;
     output.src = URL.createObjectURL(new Blob([data]))
     console.log('ready', e)
   }),
   print: Comlink.proxyValue(function(data) { console.log(data); stdout += data + "\n"; }),
   printErr: Comlink.proxyValue(function(data) { console.log('error', data); stderr += data + "\n"; }),
   postRun: Comlink.proxyValue(function(result) { console.log('DONE', result); }),
   onExit: Comlink.proxyValue(function(code) {
     console.log("Process exited with code " + code);
     console.log(stdout);
   }),
});

Ich mag es wirklich, wie Comlink, Workers und WASM kompilierte Module zusammen spielen können. Ich erhalte idiomatisches JavaScript, das direkt mit dem WASM-Modul interagiert und vom Hauptthread abläuft.

Ganzen Beitrag lesen.

Translating a blog using Google Cloud Translate and Hugo

Paul Kinlan

Ich bin vor kurzem von einer Reise nach Indien zurückgekommen, um an der Google4India Veranstaltung teilzunehmen (Bericht bald) und mich mit vielen Unternehmen und Entwicklern zu treffen. Eine der interessantesten diskutierten Änderungen war die Forderung nach mehr Inhalten in der Sprache der Nutzer in dem Land, und es wurde besonders offensichtlich bei allen Google-Produkten, die von der Erleichterung der Suche in der Benutzersprache, der Suche nach Inhalten, und es auch an die Benutzer in Text- oder Sprachform zurückzulesen.

Die ganze Reise hat mich zum Nachdenken gebracht. Mein Blog ist mit Hugo gebaut. Hugo unterstützt nun Inhalte in mehreren Sprachen. Hugo ist komplett statisch, also ist das Erstellen neuer Inhalte eine Angelegenheit, die nur eine neue Datei erstellt und das Build-System magisch macht. Vielleicht kann ich etwas aufbauen, das meinen Inhalt für mehr Leute verfügbar macht, indem ich meinen statischen Inhalt durch ein Übersetzungstool leite, weil die menschliche Übersetzung von Inhalten sehr teuer ist.

Ein paar Stunden vor meinem Flug zurück nach Großbritannien habe ich ein kleines Skript erstellt, das meine Markdown-Dateien aufnimmt und sie über Google Cloud Translate durchsucht, um schnell zu erstellen Übersetzung der Seite, die ich dann schnell hosten kann. Die gesamte Lösung wird im Folgenden vorgestellt. Es ist ein relativ grundlegender Prozessor, es ignoriert die Hugo-Präambel, es ignoriert “Code” und es ignoriert Pull-Zitate - meine Annahme war, dass diese immer so belassen werden sollen, wie sie geschrieben wurden.

Hinweis: Es sieht so aus, als ob unsere Lernsoftware für Übersetzungen verwendet wird. Daher ist es wichtig, Ihre Seite so zu markieren, dass die Google Übersetzer-Inhalte nicht als Eingabe für die Algorithmen verwendet werden.

// Imports the Google Cloud client library
const Translate = require('@google-cloud/translate');
const program = require('commander');
const fs = require('fs');
const path = require('path');

program
  .version('0.1.0')
  .option('-s, --source [path]', 'Add in the source file.')
  .option('-t, --target [lang]', 'Add target language.')
  .parse(process.argv);

// Creates a client
const translate = new Translate({
  projectId: 'html5rocks-hrd'
});

const options = {
  to:  program.target,
};

async function translateLines(text) {
  if(text === ' ') return ' ';
  const output = [];
  let results = await translate.translate(text, options);

  let translations = results[0];
  translations = Array.isArray(translations)
    ? translations
    : [translations];

  translations.forEach((translation, i) => {
    output.push(translation)
  });

  return output.join('\n');
};

// Translates the text into the target language. "text" can be a string for
// translating a single piece of text, or an array of strings for translating
// multiple texts.
(async function (filePath, target) {

  const text = fs.readFileSync(filePath, 'utf8');

  const lines = text.split('\n');
  let translateBlock = [];
  const output = [];

  let inHeader = false;
  let inCode = false;
  let inQuote = false;
  for (const line of lines) {
    // Don't translate preampble
    if (line.startsWith('---') && inHeader) { inHeader = false; output.push(line); continue; }
    if (line.startsWith('---')) { inHeader = true; output.push(line); continue; }
    if (inHeader) { output.push(line); continue; }

    // Don't translate code
    if (line.startsWith('```') && inCode) { inCode = false; output.push(line); continue; }
    if (line.startsWith('```')) { inCode = true; output.push(await translateLines(translateBlock.join(' '))); translateBlock = []; output.push(line); continue; }
    if (inCode) { output.push(line); continue; }

    // Dont translate quotes
    if (inQuote && line.startsWith('>') === false) { inQuote = false; }
    if (line.startsWith('>')) { inQuote = true; output.push(await translateLines(translateBlock.join(' '))); translateBlock = []; output.push(line); }
    if (inQuote) { output.push(line); continue; }

    if (line.charAt(0) === '\n' || line.length === 0) { output.push(await translateLines(translateBlock.join(' '))); output.push(line); translateBlock = []; continue;} 

    translateBlock.push(line);
  }

  if(translateBlock.length > 0) output.push(await translateLines(translateBlock.join(' ')))

  const result = output.join('\n');
  const newFileName = path.parse(filePath);
  fs.writeFileSync(`content/${newFileName.name}.${target}${newFileName.ext}`, result);

})(program.source, program.target);

Insgesamt bin ich sehr zufrieden mit dem Prozess. Ich verstehe, dass die maschinelle Übersetzung nicht perfekt ist, aber ich denke, dass ich die Reichweite meiner Inhalte für Menschen erhöhen kann, die möglicherweise in ihren eigenen Sprachen und nicht in Englisch suchen. Ich kann die Suchoberfläche meiner Inhalte vergrößern und hoffentlich mehr helfen Menschen.

Es wird eine Weile dauern, um zu sehen, ob dies den Leuten tatsächlich hilft, also werde ich zurück berichten, wenn ich mehr Daten habe …. Nun, um mein Skript über mehr von meiner Seite laufen zu lassen :)

Apple - Web apps - All Categories

Paul Kinlan

Erinnern Sie sich daran, wann Web Apps eine empfohlene Methode zur Verwendung von Apps auf dem iPhone waren?

What are web apps? Learn what they are and how to use them.

Vollständigen Beitrag lesen.

Um 2013 herum begann Apple, das Verzeichnis / webapps / top-level nach / iphone / umzuleiten.

Die Sache ist, das Verzeichnis war eigentlich ziemlich gut, viele der Apps dort funktionieren noch heute. Mit Blick auf den AppStore löste es jedoch viel mehr Probleme, die Entwickler hatten: Bessere Entdeckung und Suche speziell, weil der AppStore direkt auf dem Gerät war. Der AppStore begann auch damit, die Reibung zwischen Benutzern und Entwicklern speziell im Hinblick auf Zahlungen zu reduzieren.

Gears API

Paul Kinlan

Ich schreibe einen Blogpost über die frühen Mobile Web APIs und Alex Russell erinnert mich an Google Gears

Gears modules include:

  • LocalServer Cache and serve application resources (HTML, JavaScript, images, etc.) locally
  • Database Store data locally in a fully-searchable relational database
  • WorkerPool Make your web applications more responsive by performing resource-intensive operations asynchronously

Vollständigen Beitrag lesen.

Ich denke, es ist interessant zu sehen, dass AppCache und WebSQL, Geolocation und WebWorker aus den Ideen in Google Gears herauskamen und nur die letzten beiden wirklich überlebten. WebSQL wurde nie allgemein unterstützt und durch IndexedDB ersetzt. und AppCache durch ServiceWorker ersetzt

RSS Feed to Google Chat Webhook using Cloud Functions for Firebase and Superfeedr

Paul Kinlan

Wir verwenden Google Chat intern sehr oft, um über unser Team zu kommunizieren - es ist ein bisschen wie unser Durchhang; Wir erstellen auch eine Menge Inhalte, die über RSS-Feeds zugänglich sind. Wir haben sogar einen Team-Feed, den Sie alle ansehen können. Erst vor kurzem habe ich herausgefunden, dass es ziemlich einfach ist, einen einfachen Post-Only-Bot über WebHooks und das zu erstellen gab mir die Idee, ich kann einen einfachen Dienst erstellen, der RSS-Feeds abfragt und diese dann an unseren Webhook sendet, der direkt in unserem Team-Chat posten kann.

Es war am Ende ziemlich einfach, und ich habe den ganzen Code unten eingeschlossen. Ich habe Firebase-Funktionen verwendet - ich vermute, dass dies auf anderen Function-as-a-Service-Sites genauso einfach ist - und Superfeedr. Superfeedr ist ein Dienst, der Pubsubhubbub-Pings (jetzt WebSub) hören kann und auch RSS-Feeds abfragt, für die Pubsub nicht eingerichtet ist. Wenn dann ein Feed gefunden wird, pingt er eine konfigurierte URL (in meinem Fall meine Cloud-Funktion in Firebase) mit einer XML- oder JSON-Darstellung der neu gefundenen Feed-Daten - alles, was Sie tun müssen, ist die Daten analysieren und etwas damit machen.

const functions = require('firebase-functions');
const express = require('express');
const cors = require('cors');
const fetch = require('node-fetch');
const app = express();

// Automatically allow cross-origin requests
app.use(cors({ origin: true }));

app.post('/', (req, res) => {
  const { webhook_url } = req.query;
  const { body } = req;
  if (body.items === undefined || body.items.length === 0) {
    res.send('');
    return;
  }

  const item = body.items[0];
  const actor = (item.actor && item.actor.displayName) ? item.actor.displayName : body.title;

  fetch(webhook_url, {
    method: 'POST',
    headers: {
      "Content-Type": "application/json; charset=utf-8",
    },
    body: JSON.stringify({
      "text": `*${actor}* published <${item.permalinkUrl}|${item.title}>. Please consider <https://twitter.com/intent/tweet?url=${encodeURIComponent(body.items[0].permalinkUrl)}&text=${encodeURIComponent(body.items[0].title)}|Sharing it>.`
    })  
  }).then(() => {
    return res.send('ok');
  }).catch(() => {
    return res.send('error')
  });
})
// Expose Express API as a single Cloud Function:
exports.publish = functions.https.onRequest(app);

Ganzen Beitrag lesen.

Ich war überrascht und erfreut darüber, wie einfach es war, sich einzurichten.

Using HTTPArchive and Chrome UX report to get Lighthouse score for top visited sites in India.

Paul Kinlan

A quick dive in to how to use Lighthouse,HTTPArchive and Chrome UX report to try and understand how users in a country might experience the web.

Read More

Getting Lighthouse scores from HTTPArchive for sites in India.

Paul Kinlan

A quick dive in to how to use Lighthouse to try and understand how users in a country might experience the web.

Read More

'Moving to a Chromebook' by Rumyra's Blog

Paul Kinlan

Ruth John wechselte vorübergehend zu Chrome OS:

The first thing, and possibly the thing with the least amount of up to date information out there, was enabling Crostini. This runs Linux in a container on the Chromebook, something you pretty much want straight away after spending 15 minutes on it.

I have the most recent Pixel, the 256GB version. Here’s what you do.

  • Go to settings.
  • Click on the hamburger menu (top left) - right at the bottom it says ‘About Chrome OS’
  • Open this and there’s an option to put your machine into dev mode
  • It’ll restart and you’ll be in dev mode - this is much like running Canary over Chrome and possibly turning on a couple of flags. It may crash, but what the hell you’ll have Linux capabilities ��
  • Now you can go back into Settings and in regular settings there’s a ‘Linux apps’ option. Turn this on. It’ll install Linux. Once this is complete you’ll have a terminal open for you. Perfect

Ganzen Beitrag lesen.

Ruth hat einen tollen Artikel darüber geschrieben, dass sie auf Chrome OS umgestiegen ist, weil ihre Hauptmaschine kaputt gegangen ist.

Ich habe vor 4 Monaten (vor Google I / O) Vollzeit zu Chrome OS gewechselt und bin nur auf den Mac gewechselt, weil ich mein PixelBook (jetzt behoben) gebrochen habe.

Für mich ist es eine der besten Webentwicklungsmaschinen, die es heute gibt. Es ist das einzige Gerät, das ich “True Mobile” testen kann - Sie können Chrome auf Mobile, Firefox Mobile, Samsung Browser, Brave usw. über die ARC-Plattform installieren. Crostini ist auch ein großer Fortschritt für Chrome OS, da es eine Menge des Linux-App-Ökosystems zu Chrome OS bringt und es wirklich eine riesige App-Lücke für mich auf Chrome OS füllt; Ich habe Firefox, vim, git, VS-Code, Node, npm, all meine Build-Tools, GIMP und Inkscape … Das heißt nicht, dass es perfekt war, Crostini könnte schneller sein, es ist noch nicht GPU-beschleunigt und es könnte mehr in den Filemanager usw. integriert sein, und schließlich benötigt das PixelBook wirklich mehr physische Ports - ich kann zwei 4k-Bildschirme daran anschließen, aber ich kann nicht gleichzeitig aufladen.

Ich denke, Ruths Abschluss ist auch ziemlich genau, das PixelBook ist eine teure Maschine, aber ich bin sehr sehr gespannt darauf, dass dies zu immer mehr Geräten kommt (besonders zu solchen mit wesentlich niedrigeren Preisen).

Would I pay full price for it? I’m not sure I would pay full price for anything on the market right now. Point me in the direction of a system that will run my graphics software and makes a good dev machine (with minimal setup) and lasts more than 18 months, point me in the direction of a worthy investment and I will pay the money.

Jep.