Artículos

6.7: Videos complementarios - Matemáticas

6.7: Videos complementarios - Matemáticas


We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Contenido con licencia CC, compartido anteriormente

  • Matemáticas para las artes liberales I.

    Matemáticas sajonas 7/6

    Tenga en cuenta: Estos productos solo están disponibles para la compra por parte de escuelas en el hogar, consumidores e instituciones públicas.

    Saxon Math Homeschool 7/6 enseña matemáticas con un enfoque en espiral, que enfatiza el desarrollo incremental de nuevo material y la revisión continua de conceptos enseñados previamente.

    Basándose en los principios enseñados en Saxon Math 6/5, este Saxon 7/6 libro de texto introduce funciones y gráficas de coordenadas, números enteros, expresiones exponenciales y factorización prima. Los estudiantes aprenderán específicamente sobre el orden de las operaciones, las rectas numéricas, el valor posicional decimal, cómo encontrar el porcentaje de un número, cómo redondear números decimales, atributos de sólidos geométricos y más.

    Las lecciones contienen una introducción de calentamiento (con práctica de hechos, matemáticas mentales y ejercicios de resolución de problemas) al nuevo concepto, ejercicios de práctica de lecciones donde se practica la nueva habilidad y ejercicios de práctica mixta, que incluyen entre 25 y 30 problemas antiguos y nuevos. . Se proporcionan "Investigaciones" detalladas cada 10 lecciones y tienen su propio conjunto de preguntas.

    El Pruebas y hojas de trabajoEl libro proporciona pruebas complementarias de "práctica de hechos" para cada lección, así como 23 pruebas acumulativas que cubren cada 5-10 lecciones. Las "hojas de actividades" incluidas están diseñadas para ser utilizadas con las actividades dadas en el texto de trabajo del estudiante. También se incluyen cinco formularios de registro opcionales y reproducibles.

    El Manual de soluciones proporciona respuestas para todos los problemas de la lección (incluido el calentamiento, la práctica de la lección y los ejercicios de práctica mixta), así como soluciones para la práctica complementaria que se encuentra al final del texto del alumno. También incluye respuestas para las pruebas de práctica de hechos, hojas de actividades y pruebas en el libro separado de pruebas y hojas de trabajo.

    Saxon Math 7/6 está diseñado para estudiantes de sexto grado o para estudiantes de séptimo grado que tienen dificultades con las matemáticas.

    Este kit de educación en el hogar de Saxon incluye:

      Student Text 120 lecciones, 12 investigaciones, 744 páginas, tapa blanda, cuarta edición.

    Tenga en cuenta: Este producto solo está disponible para la compra por parte de escuelas en el hogar, consumidores e instituciones públicas.

    Saxon Math 7/6 ayudará a los estudiantes de secundaria a obtener una base sólida de razonamiento algebraico y habilidades geométricas mientras se preparan para pasar a matemáticas de nivel superior y razonamiento algebraico en Saxon 8/7 o Algebra =. Enseña matemáticas con un enfoque en espiral, que enfatiza el desarrollo incremental de nuevo material y la revisión continua de conceptos enseñados previamente.

    Este libro de texto Saxon 76 presenta funciones y gráficas de coordenadas, números enteros, expresiones exponenciales y factorización prima. Los estudiantes aprenderán específicamente sobre el orden de las operaciones, las rectas numéricas, el valor posicional decimal, cómo encontrar el porcentaje de un número, cómo redondear números decimales, atributos de sólidos geométricos y más.

    Las lecciones contienen una introducción (con práctica de hechos, matemáticas mentales y ejercicios de resolución de problemas) de preparación al nuevo concepto, ejercicios de práctica de lecciones donde se practica la nueva habilidad y ejercicios de práctica mixta, que incluyen entre 25 y 30 problemas antiguos y nuevos. . Se proporcionan "Investigaciones" detalladas cada 10 lecciones y tienen su propio conjunto de preguntas. La parte posterior del libro contiene problemas complementarios para lecciones y conceptos seleccionados.

    744 páginas indexadas, tapa blanda. 120 lecciones diarias, 12 investigaciones y un glosario ilustrado incluido.

    p> esto Saxon Math Homeschool 7/6 Pruebas y hojas de trabajo El libro es parte del plan de estudios Saxon Math 7/6 para estudiantes de sexto grado y proporciona pruebas complementarias de "práctica de hechos" para cada lección, así como 23 pruebas acumulativas que cubren cada 5-10 lecciones. Las "hojas de actividades" incluidas están diseñadas para ser utilizadas con las actividades indicadas en el texto de trabajo del estudiante (se vende por separado).

    También se proporcionan un programa de pruebas y cinco formularios de registro opcionales y reproducibles. Tres formularios permiten a los estudiantes registrar su trabajo en las lecciones diarias, ejercicios de práctica mixta y exámenes, mientras que los dos formularios restantes ayudan a los maestros a rastrear y analizar el desempeño de los estudiantes.

    Las soluciones a todos los problemas se encuentran en el Manual de soluciones (se vende por separado).

    241 páginas perforadas tipo papel de periódico, tapa blanda. Perforado de tres agujeros. Se prohíbe el libro de trabajo consumible y la reproducción de la mayoría de las páginas. 4ª Edición. 6to grado.

    Esta Manual de soluciones de Saxon Math Homeschool 7/6 proporciona respuestas para todos los problemas de la lección del libro de texto (incluido el calentamiento, la práctica de la lección y los ejercicios de práctica mixta), así como soluciones para las investigaciones y la práctica complementaria que se encuentran al final del texto del alumno. También incluye respuestas para las pruebas de práctica de hechos, hojas de actividades y pruebas en el libro de pruebas y hojas de trabajo. Las respuestas se enumeran en líneas y están organizadas por tipo (lecciones e investigaciones, pruebas de práctica de hechos, pruebas, etc.).


    6.7: Vídeos complementarios - Matemáticas

    Desarrollados por Teaching Tape Technology, nuestros videos están diseñados para satisfacer la necesidad del maestro de educación en el hogar, el estudiante y otros como un recurso que establece una base sólida en matemáticas.

    La tecnología de cinta didáctica ofrece:

    • Enseñanza de todos los problemas de ejemplo y práctica.
    • Propiedad de los videos.
    • Instrucción de nuestro maestro certificado por el estado.
    • Cada concepto explicado y demostrado.
    • Todos los ejemplos y problemas de práctica del libro.
    • Oportunidad para que los padres y otras personas revisen los videos antes de cada lección.
    • La capacidad de trabajar a un ritmo individual sin presiones.

    Estos videos son no diseñado para reemplazar los libros sajones, sino más bien para complementarlos. Debes tener libros sajones para usar estos videos.

    Nuestros DVD tienen aproximadamente dos horas de duración, pero debido a la duración de las lecciones, es posible que no haya un total de dos horas de enseñanza en cada video.


    Pruebas, cuestionarios y lecciones complementarias de Saxon Math 7/6

    Esto es algo que DEBE TENER cualquier maestro de matemáticas o educador en el hogar de Saxon. En cada paquete se encuentran las lecciones de remediación que faltan en la parte posterior de los libros de Saxon, un cuestionario para cada lección, dos exámenes suplementarios (uno de ellos de opción múltiple) y documentos de respuesta para todos los materiales contenidos.

    Enseño en una escuela acelerada y estas son algunas de las herramientas que he desarrollado para continuar desafiando a mis estudiantes, asegurar el dominio y remediar cuando sea necesario.

    * Pido a mis alumnos que realicen un cuestionario todos los días como lo primero que hacen cuando ingresan a la clase. Doy el cuestionario a dos lecciones antes de la lección que enseñaré ese día. Encuentro que esto realmente mantiene el material fresco en la mente de mis alumnos y les ayuda a memorizar el material a largo plazo.

    * Saxon tiene lecciones de recuperación en la parte posterior del libro, pero solo para aproximadamente un tercio de las lecciones. He creado las lecciones que faltan. Los utilizo para remediación y trabajo adicional para repartir conceptos con los que siento que los estudiantes están luchando. Siempre guardo alrededor de diez fotocopias de cada lección en mis archivos para un acceso rápido.

    * También creé dos pruebas adicionales para evaluaciones. Estos son muy útiles para cuando un estudiante está ausente o como una guía de estudio adicional.


    Una colección de dos videos para el aula y paquetes de recursos de video para matemáticas

    Videos y materiales suplementarios para la Unidad Avanzada 3 - Matemáticas, diseñados para ayudar a los educadores de adultos a implementar los avances educativos requeridos por los estándares CCR.

    Esta colección de dos videos para el aula y los materiales de lecciones asociados están diseñados para ayudar a los educadores de adultos a implementar los avances educativos requeridos por los estándares CCR. Complementan la capacitación y las herramientas que se ofrecen en la Unidad avanzada 3, Observación de los estándares en acción de CCR (SIA).

    Cada lección grabada en video incluye anotaciones descriptivas que identifican los elementos de la lección y las acciones y comportamientos de maestros y estudiantes, que apoyan el aprendizaje de preparación universitaria y profesional. El OCTAE Las lecciones en video demuestran la instrucción basada en estándares. Cada video incluye una entrevista con el maestro y está acompañado de un plan de lección y un formulario de observación completo.

    Estas lecciones han sido cuidadosamente revisadas y anotadas por educadores experimentados y expertos en contenido que utilizan la Herramienta de observación en el aula de los Estándares en acción de CCR. Es una herramienta que ayuda a los educadores a planificar y revisar sus lecciones alineadas con los estándares de preparación universitaria y profesional para realizar los cambios necesarios en la instrucción.

    La lección en video y las herramientas adjuntas incluidas en este Paquete de recursos en video brindan orientación adicional y evidencia concreta y visible de lecciones alineadas con los estándares CCR. Para ayudar a los espectadores a utilizar la herramienta de observación en el aula CCR SIA, el recurso incluye los siguientes elementos:

    • Un conjunto de preguntas orientadoras vinculadas a cada acción principal:
      • Acción principal 1. El contenido del plan de estudios de la lección coincide con las demandas de los estándares CCR.
      • Acción principal 2. Las actividades de aprendizaje (preguntas y tareas) son desafiantes y maximizan las oportunidades para que los estudiantes dominen el contenido de la lección.
      • Acción principal 3. Los estándares CCR se traducen en contenido de lecciones que involucra productivamente a los estudiantes adultos.
      • Acción principal 4. La lección se secuencia intencionalmente para construir y desarrollar las habilidades y el conocimiento de los estudiantes sobre un contenido específico.
      • Acción principal 5. Los niveles de comprensión de los estudiantes se evalúan a lo largo de la lección y la instrucción se ajusta en consecuencia.
      • Una herramienta CCR SIA de observación en el aula completa que identifica los movimientos que hace cada instructor, las respuestas de los estudiantes a la instrucción y los elementos de la lección alineados con los estándares.
      • Un plan de lecciones de Matemáticas, que identifica los estándares CCR específicos, las metas de aprendizaje y la secuencia de actividades planificadas.

      Utilice los videos para el estudio independiente o como parte de una comunidad de aprendizaje profesional o un programa de desarrollo profesional.


      Encabezados de las secciones del artículo
      Referencias de artículos

      Ball, Deborah Loewenberg, Hyman Bass y Heather C. Hill. 2011. “Proyecto de medición de la calidad matemática de la instrucción: aprendizaje de las matemáticas para la enseñanza”. Journal of Mathematics Teacher Education 14, no. 1 (febrero): 25 - 47.

      Ball, Deborah Loewenberg, Hyman Bass y Heather C. Hill

      Bergmann, Jonathan y Aaron Sams. 2012. Cambie su salón de clases: llegue a todos los estudiantes de todas las clases todos los días . Eugene, OR: Sociedad Internacional para la Tecnología en la Educación.

      Bergmann, Jonathan y Aaron Sams

      . 2012. Cambie su salón de clases: llegue a todos los estudiantes de todas las clases todos los días.

      Sociedad Internacional de Tecnología en la Educación

      Clark, Ruth Colvin y Richard E. Mayer. 2007. E-Learning y la ciencia de la instrucción: pautas comprobadas para consumidores y diseñadores de aprendizaje multimedia . 2ª ed. Nueva York: John Wiley and Sons.

      Clark, Ruth Colvin y Richard E. Mayer

      . 2007. E-Learning y la ciencia de la instrucción: pautas comprobadas para consumidores y diseñadores de aprendizaje multimedia. 2ª ed.

      de Araujo, Zandra, Samuel Otten y Salih Birisci. 2017a. "Motivaciones, conceptos y experiencias de los profesores de matemáticas con la instrucción invertida". Docencia y formación del profesorado 62 (febrero): 60 - 70.

      de Araujo, Zandra, Samuel Otten y Salih Birisci

      de Araujo, Zandra, Samuel Otten y Salih Birisci. 2017b. "Conceptualización de la 'tarea' en las aulas de matemáticas invertidas". Revista de tecnología educativa y sociedad amp 20, no. 1 (enero): 248 - 60.

      de Araujo, Zandra, Samuel Otten y Salih Birisci

      Karp, Karen S., Sarah B. Bush y Barbara J. Dougherty. 2014. "13 reglas que expiran". Enseñar matemáticas a los niños 21, no. 1 (agosto): 18-25.

      Karp, Karen S., Sarah B. Bush y Barbara J. Dougherty

      Maynard, Tara. 2015. Capítulo 4: Funciones [Paquete de curso de libro electrónico]. Autor.

      . 2015. Capítulo 4: Funciones [paquete de curso de libro electrónico]. Autor. ) | falso

      Meyer, Dan. 2016. " [Actualizado] ¿Golpeará el aro? "dy / dan, 23 de marzo. Obtenido de https://blog.mrmeyer.com/2016/updated-will-it-hit-the-hoop/

      . 2016. "[Actualizado] ¿Golpeará el aro?" dy / dan, 23 de marzo. Obtenido de https://blog.mrmeyer.com/2016/updated-will-it-hit-the-hoop/) | falso

      Moyer-Packenham, Patricia S. y Arla Westenskow. 2013. "Efectos de los manipuladores virtuales sobre el rendimiento estudiantil y el aprendizaje de las matemáticas". Revista internacional de entornos de aprendizaje virtuales y personales 4 (julio): 35 - 50.

      Moyer-Packenham, Patricia S. y Arla Westenskow

      Centro de Mejores Prácticas de la Asociación Nacional de Gobernadores (Centro NGA) y Consejo de Oficiales Escolares del Estado en Jefe (CCSSO). 2010. Estándares Estatales Básicos Comunes para Matemáticas . Washington, DC: NGA Center y CCSSO.

      Oehrtman, Michael, Marilyn Carlson y Patrick W. Thompson. 2008. "Habilidades fundamentales de razonamiento que promueven la coherencia en la comprensión de las funciones de los estudiantes". En Haciendo la conexión: investigación y práctica en matemáticas de pregrado , editado por Marilyn P. Carlson y Chris Rasmussen, págs. 27 - 42. Washington, DC: Asociación Matemática de América.

      Oehrtman, Michael, Marilyn Carlson y Patrick W. Thompson

      Asociación Matemática de América

      Smith, D. Frank. 2014. "Cómo las aulas invertidas están creciendo y cambiando". Revista EdTech , 12 de junio.


      Análisis de secuencias genéticas mediante matrices asociativas. Creación de una tubería de procesamiento genético. Ingesta datos de muestras genéticas en una base de datos. Submuestreo de datos. Correlación de muestras genéticas mediante multiplicación asociativa de matrices.

      Instructor: Jeremy Kepner

      El siguiente contenido se proporciona bajo una licencia Creative Commons. Su apoyo ayudará a MIT OpenCourseWare a seguir ofreciendo recursos educativos de alta calidad de forma gratuita. Para hacer una donación o para ver materiales adicionales de cientos de cursos del MIT, visite MIT OpenCourseWare en ocw.mit.edu.

      JEREMY KEPNER: Muy bien, hoy daremos la lección 06 del curso. Eso está en ... solo recuerde a la gente que está en el directorio de documentos aquí. Y voy a estar haciendo mucho, hablando de una aplicación en particular, que creo que en realidad es representativa de una variedad de aplicaciones que hacemos muchas cosas, propiedades estadísticas similares de una correlación cruzada de secuencia.

      está bien. Así que sumergiéndonos. Solo voy a dar una introducción a este problema particular del análisis de secuencias genéticas desde una perspectiva computacional y cómo la tecnología D4M realmente puede hacer que sea bastante fácil hacer el tipo de cosas que a la gente le gusta hacer. Y luego solo hable sobre la canalización que implementamos para implementar este sistema porque, como dije antes, cuando se trata de este tipo de datos grandes, la tecnología D4M es una pieza. A menudo es la pieza que usa para crear prototipos de sus algoritmos. Pero para ser parte de un sistema, normalmente tienes que unir una variedad de tecnologías, las bases de datos obviamente son una parte importante de eso.

      Así que este es un gran gráfico. Este es el costo relativo por secuencia de ADN a lo largo del tiempo aquí, durante los últimos 20 años. Así que estamos cortando un poco aquí en la parte inferior de la pantalla. Así que creo que estoy ... hmm. Entonces, ya sabes, esto solo muestra la ley de Moore, por lo que todos sabemos que esa tecnología ha aumentado a un ritmo increíble. Y como hemos visto, el costo de la secuenciación del ADN está disminuyendo drásticamente.

      Entonces, la primera secuencia de ADN, la gente dice nominalmente para secuenciar el primer genoma humano, fue de alrededor de mil millones de dólares. Y esperan que sea de $ 100 en los próximos años. Por lo tanto, la secuenciación de su ADN probablemente se convertirá en una actividad médica bastante rutinaria en la próxima década.

      Y entonces, los datos generados, ya sabes, típicamente un genoma humano tendrá miles de millones de secuencias de ADN. Y eso es una gran cantidad de datos.

      Lo que en realidad es quizás incluso más interesante que secuenciar su ADN es secuenciar el ADN de todas las otras cosas que están en usted, lo que a veces se llama metagenoma. Así que tome un hisopo y no solo obtenga el ADN, su ADN, sino también de todas las otras cosas que forman parte de usted, que pueden ser diez veces más grandes que su ADN. Entonces, dependiendo de eso, ahora han desarrollado estos secuenciadores de alto volumen. Aquí hay un ejemplo de uno que creo que puede hacer 600.

      JEREMY KEPNER: Está bien. No hay problema. Esos 600 mil millones de pares de bases al día, es decir, 600 gigabytes de datos al día. Y estos son todos los datos que desea correlacionar. Quiero decir, es su ... es un ... así que eso es lo que esto ... esto es una mesa, un aparato de mesa que se vende por unos cientos de miles de dólares. E incluso están entrando en secuenciadores portátiles que puede conectar con una conexión USB a una computadora portátil o algo así. Es ... hacer más en el campo, tipos de cosas.

      Entonces, ¿por qué querrías hacer esto? Pienso de manera abstracta para entender todo eso sería bueno. La computación juega un papel muy importante porque se recopilan estos datos. Y es solo una especie de fragmentos abstractos de ADN, ¿sabes? Incluso ensamblarlos en un ... solo su ADN en un proceso completo puede requerir una gran cantidad de cálculos. Y ahora mismo, eso es algo que lleva bastante tiempo.

      Y para darle un ejemplo, aquí hay un gran caso de uso. Esto muestra, si recuerda, que en el verano de 2011 hubo un brote virulento de E. coli en Alemania. Y no destacar a los alemanes. Ciertamente, nos han sucedido las mismas cosas en los Estados Unidos. Y estos ocurren en todo el mundo.

      Y entonces, ya sabes, esto muestra una especie de curso del tiempo en mayo. Ya sabes, aparecen los primeros casos que comienzan. Y luego esos conducen a las primeras muertes. Y luego se dispara. Y luego es cuando alcanzas este pico cuando realmente identifican el brote. Y luego finalmente descubrieron qué ... qué es lo que está causando a la gente y comenzaron a remediarlo.

      Pero, ya sabes, hasta que realmente tienes esta porción, la gente todavía se expone a la cosa, por lo general antes de que realmente la consiga. Hay muchos rumores circulando. Todas las demás partes de la cadena alimentaria se ven interrumpidas.

      Ya sabes, cada vez que un producto en particular está implicado, son cientos de millones de dólares en negocios perdidos, ya que la gente básicamente ... ya sabes, dicen que es espinaca. Entonces todos dejan de comprar espinacas por un tiempo. Y, oh, no era espinaca. Lo siento. Era algo más.

      Y eso es ... entonces hay un doble ... ya sabes, entonces empezaron por implicar a esto, los pepinos, pero eso no estaba del todo bien. Luego han secuenciado las cosas. Y luego identificaron correctamente que eran los brotes. Al menos creo que ese fue el curso temporal de los acontecimientos aquí. Entonces, y esta es una especie de número integrado de muertes.

      Entonces, ya sabes, la historia aquí es obviamente lo que más queremos hacer es cuando una persona se enferma aquí o aquí, ¿no sería genial secuenciarlos de inmediato, obtener esa información, saber exactamente qué está causando el problema? y luego poder comenzar a probar el canal de suministro de alimentos para que pueda tener un impacto real en la mortalidad? Y luego, de la misma manera, no tener lo económico, ya sabes, obviamente la pérdida de vidas es el problema preeminente aquí. Pero también está el impacto económico, que sin duda las personas que están en esos negocios querrían abordar.

      Entonces, como puede ver, hubo una especie de retraso bastante largo aquí entre el momento en que comenzó el brote y la liberación de la secuencia de ADN. Y este fue en realidad un gran paso adelante en el sentido de que la secuenciación del ADN realmente jugó, terminó desempeñando un papel en este proceso en lugar de lo que anteriormente no tenía.

      Y en el-- y la gente ve eso ahora y les encantaría mover esto antes. Entonces, ya sabes, y obviamente en nuestro negocio y en todo el mundo, no es solo este tipo de ejemplo. Pero hay otros tipos de ejemplos en los que la secuenciación y la identificación rápidas serían muy importantes. Y ciertamente se están realizando inversiones para intentar hacer eso más posible.

      Entonces, un ejemplo de cómo se ve la línea de tiempo de procesamiento ahora, quiero decir, básicamente estás comenzando con la infección humana. Y podría ser una enfermedad natural. Obviamente, en el DOD también están muy preocupados por las armas biológicas. Entonces, está la recolección de la muestra, la preparación, el análisis y una especie de tiempo total para los datos procesables.

      Y realmente, no quiere decir que el procesamiento juega todo en esto, pero si usted, como parte de un sistema completo, podría imaginar si pudiera hacer una recopilación en el sitio, una preparación automática y luego un análisis muy rápido, podría imaginarse acortando esto bajar a un día, que sería algo que realmente tendría un gran impacto.

      Algunas de las otras secuencias útiles, útiles ... Lo siento, el papel de la coincidencia de secuencias de ADN es comparar rápidamente dos datos, dos conjuntos de ADN. Identificación, es decir, ¿quién es? Análisis de mezclas, ya sabes, ¿qué tipo de cosas podrías determinar si alguien está relacionado con otra persona? Análisis de ascendencia, que se puede utilizar en brotes de enfermedades, investigación criminal y medicina personal. Sabes, el conjunto de cosas es bastante grande aquí.

      Así que no les voy a explicar fundamentalmente cuál es el algoritmo que usamos para hacer esta comparación, pero lo explicaremos en términos de las matemáticas que hemos descrito antes, que son estas matrices asociativas. , lo que hace que sea muy, muy fácil describir lo que está sucediendo aquí. Si tuviera que describirles los enfoques tradicionales sobre cómo describimos la coincidencia de secuencias de ADN, en realidad sería ... eso sería una conferencia completa en sí misma.

      Así que déjame entrar en ese algoritmo. Y básicamente esto es todo. En una diapositiva se muestra cómo hacemos la coincidencia de secuenciación de ADN. Entonces tenemos una secuencia de referencia aquí. Esto es algo que conocemos, una base de datos de datos que conocemos. Y consta de un ID de secuencia y luego un montón de lo que se llaman pares de bases. Y esto generalmente puede ser de varios cientos de largo. Y tendrá miles de estos, cada uno de los cuales tiene unos pocos cientos, tal vez 1,000 pares de bases de largo.

      Entonces, el enfoque estándar para esto es tomar estas secuencias y dividirlas en unidades más pequeñas, que se denominan palabras o meros. Y un número estándar se llama 10mer. Básicamente, lo que dirías es que tomas las primeras diez letras y dices: "Está bien". Eso es un 10mer. '' Luego lo mueves sobre uno, y dices que es otro 10mer, y así sucesivamente.

      Entonces, si esta fuera una secuencia de 400 largos, tendrías 400 10mers, ¿de acuerdo? Y luego, obviamente, está multiplicando el volumen total de datos por un factor de diez debido a esto. Entonces, para aquellos de nosotros que conocemos el procesamiento de señales, esto es solo un filtrado estándar. Nada nuevo aqui. Tipo muy, muy estándar de enfoque de filtrado.

      Entonces, lo que hacemos es para cada ID de secuencia, OK, esto forma la clave de fila de una matriz asociativa. Y cada 10mer de esa secuencia forma una clave de columna de ese 10mer. Entonces, puede ver aquí cada una de estas filas que le muestra todos los 10mers únicos que aparecieron en esa secuencia. Y luego una columna es un 10mer en particular.

      Entonces, como podemos ver, ciertos 10mers aparecen con mucha frecuencia. Y algunos aparecen de una forma no tan común. Entonces eso nos da una matriz asociativa, que es una matriz dispersa donde tenemos ID de secuencia por 10mer. Y luego hacemos lo mismo con la colección. Así que hemos recogido, en este caso, una muestra de bacterias desconocidas. Y tenemos un conjunto similar de secuencias aquí. Y hacemos exactamente lo mismo. Tenemos un ID de secuencia y luego el 10mer.

      Y luego lo que queremos hacer es correlacionar, encontrar todas las coincidencias entre ellos. Y eso se acaba de hacer con la multiplicación de matrices. Entonces, A1 transponer A2 dará como resultado una nueva matriz, que es el ID de secuencia de referencia por ID de secuencia desconocido. Y luego, entonces ... el valor aquí será cuántas coincidencias tuvieron.

      Y entonces, por lo general, parece, si digamos, 400 coincidencias, entonces estaría buscando cosas muy por encima de 30 o 40 coincidencias entre ellos. O nuestra verdadera coincidencia sería tal vez 50%, 60%, 70% de ellos coinciden. Entonces, puede aplicar un umbral a esto para disuadir, para encontrar las coincidencias verdaderas.

      Muy simple. Y, ya sabes, existen grandes paquetes de software que hacen esto. Básicamente, hacen este algoritmo con varios giros y variaciones y cosas así. Pero aquí podemos explicarlo todo conociendo las matemáticas de las matrices asociativas en una diapositiva.

      Entonces, este cálculo es lo que llamamos un cálculo de coincidencia directa. Literalmente estamos comparando los 10mers de cada secuencia con todos los demás. Y esto es esencialmente lo que hace la comparación de secuencias. Y se necesita mucho cálculo para hacer esto. Si tiene millones de ID de secuencia y millones de ID de secuencia, esto se convierte rápidamente en una gran cantidad de esfuerzo computacional.

      Así que, por supuesto, estamos interesados ​​en otras técnicas que posiblemente podrían acelerar esto. Entonces, una de las cosas que podemos hacer usando la base de datos Accumulo es ingerir este conjunto completo de datos como una matriz asociativa en la base de datos. Y usando las funciones de recuento de Accumulo, luego recuento. Básicamente, a medida que hacemos la ingestión, cuente automáticamente los recuentos de cada 10 mer. Entonces, básicamente, podemos construir un histograma de los 10 meros. Unos 10mers aparecerán en un gran número de secuencias, y unos 10mers aparecerán en no muchas.

      Entonces este es ese histograma, o esencialmente una distribución de grados. Hablamos de distribuciones de grados en otros. Esto nos dice que hay un 10mer que aparece en, ya sabes, el 80% o el 90% de todas las secuencias. Y luego hay 20 o 30 10mers que aparecen en solo unos pocos. Y luego hay una distribución, como en este caso, casi una ley, una especie de casi una curva logarítmica normal que muestra que, en realidad, la mayoría de los 10 mer parecen haber aparecido en unos pocos cientos de secuencias.

      Y ahora una cosa que he hecho aquí es crear ciertos umbrales para decir, está bien. Si solo quisiera ... si mirara esa matriz grande y dispersa de datos, y quisiera establecer un umbral, ¿qué ... cuántos ... cuántos de los datos eliminaría? Entonces, si quisiera eliminar el 50% de los datos, podría establecer un umbral, solo veamos las cosas que tienen menos de un grado de 10,000.

      Podrías decir, bueno, ¿por qué querría eliminar estas cosas muy, muy populares? Bueno, porque aparecen en todas partes, una verdadera coincidencia es ... no me van a dar ninguna información que realmente me diga acerca de las verdaderas coincidencias. Esos van a estar desordenados. Todo los tiene. Que dos secuencias compartan ese 10mer en particular realmente no me da mucho poder para seleccionar a cuál pertenece realmente.

      Así que ... para que pueda hacer eso. Si quisiera bajar a solo el 5% de los datos, podría decir, ya sabes, solo quiero ver 10 meros que son 100, ya sabes, o que tienen, que aparecen en 100 de estas secuencias o menos. Y si quisiera ir aún más lejos, ya sabes, podría bajar a 20, 30, 40, 50, y solo tendría la mitad de los datos. Habría eliminado de la consideración el 99,5% de los datos.

      Entonces, si puedo hacer eso, entonces eso es muy poderoso porque puedo tomar rápidamente mi conjunto de datos de muestra. Sé todos los 10mers que tiene. Y puedo compararlo rápidamente con este histograma y decir: "No. No quiero hacer nada. Solo me importa esta pequeña sección de datos, y solo necesito hacer correlaciones a partir de eso. & Quot;

      Así que veamos cómo funciona. Y debo decir que esta técnica es muy genérica. Podrías hacerlo para la coincidencia de texto. Si tiene documentos, tiene el mismo problema. Las palabras muy populares no le dirán realmente nada significativo sobre si dos documentos están relacionados entre sí. Va a ser un desorden. Y otros tipos de registros de esa cosa, ¿sabes?

      Entonces, en la perspectiva de la teoría de grafos, llamamos a estos supernodos. Estos 10mers son supernodos. Tienen conexiones con muchas, muchas cosas y, por lo tanto, si intentas conectarte a través de ellas, no te dará información muy útil. Ya sabes, es como si la gente visitara Google. Buscar todos los registros en los que las personas se conectan, visitó Google, no le dirá mucho a menos que tenga más información. Por tanto, no es un factor distintivo muy importante.

      Así que aquí hay un ejemplo de los resultados de hacer: seleccionar este umbral bajo, eliminar el 99.5% de los datos y luego comparar nuestras coincidencias que obtuvimos con lo que sucede cuando usamos el 100% de los datos. Entonces, lo que tenemos aquí es la verdadera coincidencia de 10 meros y luego la coincidencia de submuestreo medida aquí.

      Y lo que ven aquí es que obtenemos una tasa de éxito muy, muy alta en términos de que básicamente detectamos todas las coincidencias sólidas utilizando solo la mitad de los datos. Y, ya sabes, el número de falsos positivos es extremadamente bajo. De hecho, una mejor manera de verlo es si observamos la probabilidad acumulada de detección. Esto muestra que si la coincidencia real, si en realidad hubo 100 coincidencias entre dos secuencias, detectamos todas aquellas que usan solo 1/20 de los datos.

      Y del mismo modo, en nuestra tasa de probabilidad de falsas alarmas, vemos que si ve más de una coincidencia de diez en los datos de la submuestra, será una coincidencia verdadera esencialmente el 100% del tiempo.

      Por tanto, esta técnica nos permite acelerar drásticamente la velocidad a la que podemos hacer estas comparaciones. Y tiene que pagar el precio de tener que precargar sus datos de referencia en esta base de datos especial. Pero dado que tiende a estar más preocupado por comparar con respecto a él, esa es una inversión que vale la pena.

      Así que ese es solo un ejemplo de cómo puede usar estas técnicas, usar las matemáticas de matrices asociativas y estas bases de datos juntas de una manera coherente. Entonces podemos hacer más que solo buscar. Entonces, la matriz de multiplicación que les mostré antes, A1 por A2 transpuesta nos mostró los conteos, el número de coincidencias.

      Pero a veces no queremos saber más que eso. Queremos saber no solo el número de coincidencias, sino que por favor muéstreme el conjunto exacto de 10mers que causó la coincidencia, ¿de acuerdo? Y aquí es donde, y creo que hablamos de esto en una conferencia anterior, tenemos estas multiplicaciones de matrices especiales que realmente tomarán la clave de intersección en la matriz y la multiplicarán ahora, asignándola al campo de valor o [INAUDIBLE].

      Y es por eso que tenemos la matriz de multiplicación especial llamada CatKeyMul. Y así, por ejemplo aquí, si miramos el resultado de eso, que es AK, y decimos: "Muéstrame todas las coincidencias de valores que son mayores que seis en sus filas y sus columnas juntas", ahora podemos ver que esto ID de secuencia coincidente con este ID de secuencia. Y estos fueron los 10mers reales que generaron que tenían en común.

      Ahora, claramente, seis no es una verdadera coincidencia en este pequeño conjunto de datos de muestra. No tenemos coincidencias reales. Pero esto solo te muestra cómo es eso. Y esto es lo que llamamos un árbol genealógico que preserva la correlación. Es decir, le muestra el ... no solo le da el recuento. Le muestra de dónde vino esa evidencia. Y puedes rastrearlo.

      Y esto es algo que queremos hacer todo el tiempo. Si imaginaba dos documentos que deseaba realizar una correlación cruzada, podría decir, está bien. Tengo estos dos documentos y ahora he correlacionado sus coincidencias de palabras. Bueno, ahora quiero saber las palabras reales que coincidieron, no solo los recuentos. Y usarías exactamente la misma multiplicación para hacer eso.

      Del mismo modo, puede hacer la correlación palabra / palabra de un documento. Así que sería A transpuesta por A en lugar de A, A transpuesta. Y luego te mostraría dos palabras. Le mostraría la lista de documentos que realmente tenían en común. De nuevo, esta es una herramienta poderosa. Una herramienta poderosa.

      Again, I should remind people when using this, you do have to be careful when you do, say, CatKeyMul A1 times A1 transpose if you do a square because you will then end up with this very dense diagonal, and these lists will get extremely long. And you can often run out of memory when that happens. So you do have to be careful when you do correlations, these CatKeyMul correlations on things that are going to have very large, overlapping matches.

      The regular matrix multiply, you don't have to worry about that, creating dense. You know, that's not a problem. But that's just a little caveat to be aware of. And there's really nothing we can do about that if you do square them, you know? And we've thought about creating a new function, which is basically squaring with and basically not doing the diagonal. And we may end up making that if we can figure that one out.

      So once you have those actual specific matches here, so for example, we have our two reference samples. And we looked at the ones that were larger. So here's our two sequences. This, if we look back at the original data, which actually stored the locations of that. So now we're saying, oh, these two have six matches between them. Let me look them up through this one line statement here. Now I can see the actual 10mers that match and their actual locations in the real data.

      And from that, I can then deduce that, oh, actually this is not six separate 10mer matches, but it's really two sort of-- what is this, 1, 2, 3, 4, 5, 6, 7, 8, 9, 10. One 10mer match, and then I guess-- I think this is like a 17 match, right? And likewise over here. You get a similar type of thing.

      So that's basically stitching it back together because that's really what you're trying to do is find these longer sequences where it's identical. And then people can then use those to determine functionality and other types of things that have to do with that. So this is just part of the process of doing that. And it just shows by having this pedigree-preserving matrix multiply and the ability to store string values in the value, that we can actually preserve that information and do that.

      So that just shows you, I think, a really great example. It's kind of one of the most recent things we did this summer in terms of the power of D4M coupled with databases to really do algorithms that are completely kind of new and interesting. And as algorithm developers, I think that's something that we are all very excited about.

      So now I'm going to talk about how this fits into an overall pipeline. So once again, just for reminders, you know, D4M, we've talked mostly about working over here in this space, in the Matlab space, for doing your analytics with associative arrays. But they also have ways-- we have very nice bindings too. In particular, the Accumulo database, but we can bind to just about any database.

      And here's an example. If I have a table that shows all this data, and I just wanted to get, please give me the column of this 10mer sequence, I would just type that query and it would return that column for me very nicely. So it's a very powerful binding to databases.

      It's funny because a lot of people, when I talk to them, are like-- they think D4M is either just about databases or just about this associative array mathematics. And because they usually kind of-- people take sort of-- they usually see it sort of more used in one context or another. And it's really about both. It's really about connecting the two worlds together.

      That particular application that we showed you, this genetic sequence comparison application is like you-- is a part of a pipeline, like you would see in any real system. And so I'm going to show you that pipeline here.

      And so we have here the raw data. So Fasta is just the name of the file format that all of this DNA sequence comes in, which basically looks pretty much like a CSV file of what I just saw you. I guess that deserves a name as a file format, but, you know. So it's basically that.

      And then one thing we do is we parse that data from the Fasta data into a triples format, which allows us to then really work it with this associative array. So it basically creates the 10mers and puts them into a series of triple files, or a row triple file, which holds the sequence ID, the actual 10mer itself, a list of those, and then the position of where that 10mer appeared in the sequence.

      And then typically what we do then is we read-- we write a program. And this can be a parallel program if we want it that will then, usually in Matlab using D4, that will read these sequences in and will often just directly insert them without any additional formatting. Just-- we have a way of just inserting triples directly into the Accumulo database, and which is the fastest way that we can do inserts. And then it will also convert these to associative arrays in Matlab and will save them out as mat files because this will take a little time to convert all of these things into files.

      You're like, well why would we do that? Well, there's two very good reasons for doing that. One, the Accumulo database, or any database, is very good if we want to look up a small part of a large data set, OK? So if we have billions of records, and we want millions of those records, that's a great use of a database.

      However, there are certain times we're like, no. We want to traverse the entire data set. Well, databases are actually bad at doing that. If you say, "I want to scan over the entire database," it's like doing a billion queries, you know? And so there's overheads associated with that.

      In that instance, it's far more efficient to just save the data into these associative array files, which will read in very quickly. And then you can just-- if you're like, "I want to do an analysis of the data in that way where I'm going to want-- I really want to work with 10% or 20% of the data." Then having these-- this data in this already parsed into this binary format, is a very efficient way to run an application or an analytic that will run over all of those files.

      It also makes parallelism very easily. You just get-- let different processors process different files. You know that's very easy to do. We have lots of support for that type of model. And so that's a good reason to do that.

      And at worst, you're doubling the size of the data and your database. Don't worry about it. We double data and databases all the time. Databases are notoriously, if you put a certain amount of data in, they make it much larger. Accumulo actually does a very good job of that. It won't really be that much larger. But there's no reason to not, as you're doing the ingest, to save those files.

      And then you can do various comparisons. So for example, we then can-- if this-- if we save the sample data as a Matlab file, we could read that in. And then do our comparison with the reference data that's sitting inside the database to get our top matches. And that's exactly how this application actually works.

      So this pipeline from raw data to an intermediate format to a sort of efficient binary format and insertion to then doing the analytics and comparisons. And eventually, you'll usually often have another layer, which is you might create a web interface to something. We're like, OK. This is now a full system. A person can type in your-- or put in their own data. And then it will then call a function.

      So again, this is very standard how this stuff ends up fitting into an overall pipeline. And it's certainly a situation where if you're going to deploy a system, you might decide, you know what? I don't want Matlab to be a part of my deployed system. I want to do that, say, in Java or something else that's sort of more universal, which we certainly see people do.

      It still makes sense to do it in this approach because the algorithm development in testing is just much, much easier to do in an environment like D4M. And then once you have the algorithm correct, it's now much easier to give that to someone else who is going to do the implementation in another environment and deal with all the issues that are associated with maybe doing a deployment type of thing.

      So one certainly could use the Matlab or the new octave code in a production environment. We certainly have seen that. But often the case, one has limitations about what can deploy. And so it is still better to do the algorithm development in this type of environment than to try and do the algorithm in a deployment language like Java.

      One of the things that was very important for this database, and it's true of most parallel databases. So if we want to get the highest performance insert, that is, we want to read the data and insert it as quickly as possible in the database, typically we'll need to have some kind of parallel program running, in this case, maybe each reading different sets of input files and all inserting them into the parallel database.

      And so in Accumulo, they divide your table amongst the different computers, which they call tablet servers. And it's very important to avoid the situation where everyone is inserting and all the data is inserting into the same tablet server. You're not going to get really very good performance.

      Now, the way Accumulo splits up its data is similar to many other databases. It's called sharting, sometimes they call it. It just means they split up the table, but the term, in the database community, uses-- they call it sharting. What they'll do is they'll basically take the table and they'll assign certain row keys, in this c-- in Accumulo's case, certain contiguous sets of row keys to particular tablet servers.

      So, you know, if you had a data set that was universally split over the alphabet, then-- and you were going to split it, the first split would be between m and n. And so this is called splitting. And it's very important to try and get good splits and choose your splits so that you get good performance.

      Now D4M has a native interface that allows you to just say, here are the-- I want these to be the splits of this table. You can actually compute those and assign them if you have a parallel instance.

      In the class, you will only be working on the databases that will be set up for you. We have set up for you are all single node instances. They do not have multiple tablet servers, so you don't really have to do-- deal with splitting. It's only an issue in parallel, but it's certainly something to be aware of and is often the key.

      People will often have a very large Accumulo instance. And they may only be getting not very-- the performance they would get on-- in just a two node instance because-- and usually it's because their splitting needs to be done in this proper way. And this is true of all databases, not just Accumulo. But other databases have the exact same issue.

      Accumulo is called Accumulo because it has something called accumulators, which is what actually makes this whole bioinformatics application really go, which is that I can denote a column in a table to be an accumulator column, which means whenever a new entry is hit, some action will be performed. In this case, the default is addition.

      And so a standard thing we'll do in our schema, as we've already talked about these exploded transpose pair schemas that allows do fast lookups in rows and columns is we'll, OK, create two additional tables, one of which holds the sums of the rows, and one of which holds the sums of the columns which then allows us to do these very fast lookups of the statistics, which is very useful to know how do we avoid accidentally looking up columns that will have-- that are present in the whole database.

      An issue that happens all the time is that you'll have a column, and it's essentially almost a dense column in the database, and you really, really, really don't want to look that up because it's basically giving you the whole database. Well, with this accumulator, you can look up the column first, and it will give you a count and be like, oh, yeah. And then you can just say, no. I want to look up everything but that column. So very powerful, very powerful tool for doing that.

      That's also another reason why we construct the associative array when we load it for insert because when we construct the associative array, we can actually do a quick sum right then and there of whatever piece we've read in. And so then when we send that into the database, we've dramatically reduced the number of-- the amount of tallying it has to do.

      And this can be a huge time saver because if you don't do that, you're essentially reinserting the data two more times because, you know, when you've inserted it into the table and it's transpose, and to get the accumulation effect, you would have to directly insert it. But if we can do a pre-sum, that reduces the amount of work on that accumulator table dramatically. And so again, that's another reason why we do that.

      So let's just talk about some of the results that we see. So here's an example on a-- let's see, this is an eight node database. And this shows us the ingest rate that we get using different numbers of ingesters. So this is different programs all trying to insert into this database simultaneously. And this just shows the difference between having 0 splits and, in this case, 35 splits was the optimal number that we had. And you see, it's a rather large difference. And you don't get-- you get some benefit with multiple inserters, but that sort of ends when you don't do this. So this is just an example of why you want to do that.

      Another example is with the actual human DNA database. This shows us our insert rate on doing-- using different numbers of inserters. And yeah, so this is eight tablet servers. And this just shows the different number of ingesters here. And since we're doing proper splitting, we're getting very nice scaling.

      And this is actually the actual output from Accumulo. It actually has a nice little meter here that shows you what it says you're actually getting, which is very, very nice to be able to verify that you and the database both agree that your insert rate is-- so this is insert right here. So you see, we're getting about 4,000-- 400,000 entries per second, which is an extraordinarily high number in the database community.

      Just to give you a comparison, it would not be uncommon if you were to set up a MySQL instance on a single computer and have one inserter going into it to get maybe 1,000 inserts per second on a good day. And so, you know, this is essentially the core reason why people use Accumulo is because of this very high insert and query performance.

      And this just shows our extrapolated run time. If we wanted to, for instance, ingest the entire human Fasta database here of 4.5 billion entries, we could do that in eight hours, which would be a very reasonable amount of time to do that.

      So in summary, what we are able to achieve with this application is this shows one of these diagrams. I think I showed one in the first lecture. This is a way of sort of measuring our productivity and our performance. So this shows the volume of code that we wrote. And this shows the run time. So obviously this is better down here.

      And this shows BLAST. So BLAST is the industry standard application for doing sequence match. And I don't want, in any way, to say that we are doing everything BLAST does. BLAST is almost a million lines of code. It does lots and lots of different things. It handles all different types of file formats and little nuances and other types of things. But at its core, it does what we did. And we were able to basically do that in, you know, 150 lines of D4M code. And using the database, we were able to do that 100 times faster.

      And so this is really the power of this technology is to allow you to develop these algorithms and implement them and, in this case, actually leverage the database to essentially replace lookups with computations in a very intelligent way, in a way that's knowledgeable about the statistics of your data. And that's really the power. And these are the types of results that people can get.

      And this whole result was done with one summer student, a very smart summer student, but we were able to put this whole system together in about a couple of months. And this is from a person who knew nothing about Accumulo or D4M or anything like that. They were a good-- they were smart. They were good, solid Java background and very energetic. But, you know, these are the kinds of things we've been able to see.

      So just to summarize, we, again, we see-- I think just to-- this types of techniques are useful for document analysis and network analysis and DNA sequencing. You know, this is really summarizing all the applications that we've talked about. We think there's a pretty big gap between doing the data analysis tools that our really algorithm developers need. And we think D4M is really allowing us to use a tool like Matlab for its traditional role in this new domain, which is algorithm development. Figure things out, getting things right before you can then hand it on to someone else to implement and actually get enough production environment.

      So with that, that brings the end to the lecture. And then there's some examples where we show you the-- this stuff. So-- and there's no homework other than I sent you all that link to see if your access to the database exists. Did everyone-- raise your hand. Did you check the link out? Yes? You logged in? It worked? You saw a bunch of databases there? OK.

      If it doesn't work, because the next class is sort of the penultimate class, I'm going to go through all these examples. And the assignment will be to run those examples on those databases. So you will be really using D4M, touching a database, doing real analytics, doing very complicated things. The whole class is just going to be a demonstration of that. Everything we've been doing has been leading up. So the concepts are in place so that you can understand those examples fairly easily.

      All right, so we will take a short break here. And then we will come back, and I will show you the demo, this week's demo.


      Professional Learning

      ORIGO Education started in 1995 as a professional learning company with an exclusive focus on Pre-K through Grade 6 mathematics. Since then, we have been further developing our core program ORIGO Stepping Stones and supplemental math resources for the classroom.

      Our company’s mission is to make mathematics meaningful, enjoyable, and accessible for all. ORIGO Education is founded on four strong beliefs:

      1. Learning is a social process that requires language and discourse.
      2. Students who develop strong thinking, problem-solving, and communication skills grow into productive, innovative members of society.
      3. Content taught conceptually, and in a logical, learner-friendly sequence develops deep understanding and success.
      4. Technology empowers rather than replaces educators.

      ORIGO Education offers a tailored comprehensive professional learning program that is based on the latest research on mathematics teaching and learning, as well as implementation science. Our learning service educators offer coaching sessions, strategies to leverage supplemental resources, and embedded on-demand support to meet the unique needs of each school or district with whom we work.

      We look forward to partnering with you to strengthen mathematics teaching and learning in your community.

      We make learning mathematics meaningful, enjoyable, y accessible for all.

      Implementation Science Webinar Series for Stepping Stones

      Now more than ever a strong plan is needed to prepare for and support implementation. Join our 4-part implementation science series beginning in June as we guide you in planning for your Stepping Stones implementation in the new school year. Not just for first year users! This complimentary webinar series will share resources and help you develop a plan that can adapt to any change in instructional delivery that might occur next year.

      Re-Engage Learners Through Collaborative Professional Learning and Coaching

      These onsite and virtual professional learning resources are designed to jump-start your process of re-engaging learners with rigorous mathematics as you return for the 2021 – 2022 academic year. These resources are a mix of classroom-ready supplemental materials bundled with professional learning designed to jump-start teachers using them in the classroom. By focusing on basic facts, problem solving, and mathematical language & discourse, teachers are ready for the wide range of learners they will see when the new school year begins.

      We have designed a resource to support you through the transition back to school in the fall.

      Reinforcing and extending grade level concepts and skills is especially important in elementary school math. Mathematics is a discipline of interconnected knowledge that is built on prior learning. Students need to recall concepts, skills and procedures in order to successfully learn new material.

      One tool will not make up the unfinished learning students experienced. What is needed is on-going, professional learning and coaching to support teachers with determining the concepts and skills to review, adjusting curriculum plans, and adapting instruction for a variety of delivery models.

      Professional Learning through Coaching

      ORIGO Education works alongside teachers and educational leaders to transform research and theory into constructive, everyday classroom practices that make learning mathematics meaningful and enjoyable for all.

      Our team of experts offer methods, ideas, and strategies to help you nurture engaged, motivated, and happy-to-learn thinkers. ORIGO Education coaching support can be offered through a strategic combination of onsite professional learning sessions, in-class observations and model lessons, and follow-up online sessions.

      We partner with you to solve your most pressing challenges, including:

      • Developing number sense
      • Strengthening questioning and discourse in the classroom
      • Supporting ELL students in mathematics
      • Developing problem-solving and persistence
      • Using multiple representations in mathematics
      • Building strong understanding of common and decimal fractions
      • Fostering the practice or process standards
      • Unpacking the content standards
      • Developing thinking strategies for addition and subtraction
      • Developing thinking strategies for multiplication and division
      • Extending thinking strategies beyond basic facts

      Professional Learning in Strategies Supported by Supplemental Resources

      edWeb.net
      Mathematics for Young Learners is a professional learning community hosted by ORIGO Education on edWeb.net. This community provides a platform for educators to share advice and support, and give them the opportunity to participate in webinars, share resources, engage in discussions, and collaborate with peers around the world. You will also find information on ORIGO's upcoming webinars and an archive of previous discussions.

      Blog: ORIGO Insights
      ORIGO Insights is a source of inspiration for everyone wanting to nurture engaged, math thinkers. As well as advice, this blog supports educators in learning methods, ideas, and strategies to support student' mathematical development. This is also a great place to learn about our upcoming events and latest news from ORIGO.

      ORIGO Education makes learning mathematics meaningful, enjoyable, and accessible for all students and their teachers with our extensive list of supplemental math resources for the classroom.

      We have been addressing the needs of elementary mathematics education for more than 20 years. Our products range from our core program, ORIGO Stepping Stones, to visual aids and manipulatives that include traditional printed products and interactive digital resources.

      ORIGO's learning service educators have a wide range of expertise and knowledge, which they bring to hands-on training with our supplemental resources. Teachers learn practical strategies for helping students improve their knowledge, skills, and abilities to be successful in mathematics.


      HIVE Conference

      Our annual professional learning event went virtual in 2020. Due to the overwhelming response, HIVE 2021 will also be virtual over two weeks in July. At HIVE, educators learn from curriculum authors and facilitators in an intimate, immersive environment with optional flex sessions to customize their experience. Multiple pathways are offered for each OUR curriculum to support learning at all levels.

      Join Open Up Resources Digital Communities

      From recurring Twitter chats led by Professional Learning Community Coaches (PLCs) to private Facebook groups, the Open Up Resources digital community provides experience and knowledge to support teachers and leaders on their implementation and instructional journeys.


      Ver el vídeo: Lesson (Julio 2022).


Comentarios:

  1. Molkis

    suficiente de mi bien

  2. Montes

    ¡Buenos compañeros!

  3. Gokul

    Creo que estás equivocado. Envíeme un correo electrónico a PM.

  4. Dalan

    Tengo una situación similar. Te invito a un debate.



Escribe un mensaje